﻿﻿{"id":2877,"date":"2026-04-29T11:03:53","date_gmt":"2026-04-29T09:03:53","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/talkie-1930-le-llm-qui-pense-quon-est-en-1930\/"},"modified":"2026-04-29T11:03:53","modified_gmt":"2026-04-29T09:03:53","slug":"talkie-1930-le-llm-qui-pense-quon-est-en-1930","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/talkie-1930-le-llm-qui-pense-quon-est-en-1930\/","title":{"rendered":"Talkie-1930 &#8211; Le LLM qui pense qu&#8217;on est en 1930"},"content":{"rendered":"<p>Une IA qui pense que 2026 ressemble \u00e0 un monde fait de bateaux \u00e0 vapeur et de vastes r\u00e9seaux ferroviaires, et qui consid\u00e8re qu&#8217;une seconde guerre mondiale est tr\u00e8s peu probable&#8230; voil\u00e0 <strong>Talkie-1930<\/strong>, le nouveau mod\u00e8le de langage \u00e0 13 milliards de param\u00e8tres lanc\u00e9 par Nick Levine, David Duvenaud et Alec Radford (l&#8217;un des architectes de GPT-2 chez OpenAI).<\/p>\n<p>LE truc avec ce mod\u00e8le d&#8217;un nouveau genre, c&#8217;est qu&#8217;il n&#8217;a JAMAIS lu un mot \u00e9crit apr\u00e8s le 31 d\u00e9cembre 1930. Pas de Wikipedia, pas de Reddit, pas de GitHub&#8230;.et j&#8217;en passe.<\/p>\n<p>Si \u00e7a vous branche, vous pouvez tester la d\u00e9mo direct sur<br \/>\n<a href=\"https:\/\/talkie-lm.com\/chat\">talkie-lm.com\/chat<\/a><br \/>\n, et les poids sont dispos sur<br \/>\n<a href=\"https:\/\/huggingface.co\/talkie-lm\">HuggingFace<\/a><br \/>\nsous licence Apache 2.0 !<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/talkie-1930-llm-historique\/talkie-1930-llm-historique-2.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Alors pourquoi 1930 et pas 1950 ou 1900 ?<\/p>\n<p>H\u00e9 bien tout simplement parce que c&#8217;est la date pr\u00e9cise \u00e0 laquelle les \u0153uvres tombent dans le domaine public aux \u00c9tats-Unis. L&#8217;\u00e9quipe a donc pu aspirer 260 milliards de tokens de livres, journaux, p\u00e9riodiques, revues scientifiques, brevets et jurisprudence ant\u00e9rieurs \u00e0 cette date sans risquer la moindre poursuite l\u00e9gale.<\/p>\n<p>Et c&#8217;est l\u00e0 que \u00e7a devient amusant parce que quand on demande \u00e0 Talkie-1930 de d\u00e9crire le futur, il imagine comme je vous le disais en intro, un monde domin\u00e9 par les bateaux \u00e0 vapeur et les trains et c&#8217;est logique car c&#8217;\u00e9tait l&#8217;horizon technologique de son corpus \u00e0 l&#8217;\u00e9poque. Le mod\u00e8le consid\u00e8re aussi qu&#8217;une seconde guerre mondiale est improbable (il ne conna\u00eet \u00e9videmment que la Premi\u00e8re) et du coup, \u00e7a donne un terrain d&#8217;exp\u00e9rimentation fascinant pour \u00e9tudier le raisonnement temporel et la g\u00e9n\u00e9ralisation hors distribution moderne.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/talkie-1930-llm-historique\/talkie-1930-llm-historique-3.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>L&#8217;\u00e9quipe a publi\u00e9 trois checkpoints : <code>talkie-1930-13b-base<\/code> (mod\u00e8le brut), <code>talkie-1930-13b-it<\/code> (pour le chat) et <code>talkie-web-13b-base<\/code> (un jumeau d&#8217;architecture identique mais entra\u00een\u00e9 sur<br \/>\n<a href=\"https:\/\/huggingface.co\/datasets\/HuggingFaceFW\/fineweb\">FineWeb<\/a><br \/>\n\u00e0 titre de comparaison). Cette approche &#8220;mod\u00e8le jumeau&#8221; permet par exemple de mesurer pr\u00e9cis\u00e9ment ce qui vient de l&#8217;architecture vs ce qui vient des donn\u00e9es.<\/p>\n<p>Pour la phase de post-training, l&#8217;\u00e9quipe a utilis\u00e9 Claude Sonnet 4.6 comme juge dans une proc\u00e9dure DPO (Direct Preference Optimization). Ils ont \u00e9galement g\u00e9n\u00e9r\u00e9 des conversations synth\u00e9tiques entre Claude Opus 4.6 et Talkie pour le fine-tuning supervis\u00e9. Bref, c&#8217;est un mod\u00e8le ultra-vintage entra\u00een\u00e9 \u00e0 l&#8217;aide de mod\u00e8les ultra-modernes.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/talkie-1930-llm-historique\/talkie-1930-llm-historique-4.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>L&#8217;\u00e9quipe travaille d\u00e9j\u00e0 sur un syst\u00e8me OCR custom pour les documents historiques (les OCR conventionnels n&#8217;atteignent que 30% de l&#8217;efficacit\u00e9 d&#8217;apprentissage face \u00e0 du texte transcrit manuellement) et vise un mod\u00e8le de niveau GPT-3 pour l&#8217;\u00e9t\u00e9 2026, avec un corpus pouvant atteindre plus d&#8217;un trillion de tokens.<\/p>\n<p>Bref, Talkie-1930 c&#8217;est un projet de recherche assez chouette pour tous ceux qui aiment creuser les LLMs. Le code est sur<br \/>\n<a href=\"https:\/\/github.com\/talkie-lm\/talkie\">GitHub<\/a><br \/>\nsous Apache 2.0, et la d\u00e9mo en ligne marche tr\u00e8s bien si vous voulez juste tester sans installer.<\/p>\n<p>Amusez-vous bien !<\/p>\n<p>\n<a href=\"https:\/\/www.marktechpost.com\/2026\/04\/27\/meet-talkie-1930-a-13b-open-weight-llm-trained-on-pre-1931-english-text-for-historical-reasoning-and-generalization-research\/\">Source<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Une IA qui pense que 2026 ressemble \u00e0 un monde fait de bateaux \u00e0 vapeur et de vastes r\u00e9seaux ferroviaires, et qui consid\u00e8re qu&#8217;une seconde guerre mondiale est tr\u00e8s peu probable&#8230; voil\u00e0 Talkie-1930, le nouveau mod\u00e8le de langage \u00e0 13 milliards de param\u00e8tres lanc\u00e9 par Nick Levine, David Duvenaud et Alec Radford (l&#8217;un des architectes de GPT-2 chez OpenAI). LE truc avec ce mod\u00e8le d&#8217;un nouveau genre, c&#8217;est qu&#8217;il n&#8217;a JAMAIS lu un mot \u00e9crit apr\u00e8s le 31 d\u00e9cembre 1930. Pas de Wikipedia, pas de Reddit, pas de GitHub&#8230;.et j&#8217;en passe. Si \u00e7a vous branche, vous pouvez tester la d\u00e9mo direct sur talkie-lm.com\/chat , et les poids sont dispos sur HuggingFace sous licence Apache 2.0 ! Alors pourquoi 1930 et pas 1950 ou 1900 ? H\u00e9 bien tout simplement parce que c&#8217;est la date pr\u00e9cise \u00e0 laquelle les \u0153uvres tombent dans le domaine public aux \u00c9tats-Unis. L&#8217;\u00e9quipe a donc pu aspirer 260 milliards de tokens de livres, journaux, p\u00e9riodiques, revues scientifiques, brevets et jurisprudence ant\u00e9rieurs \u00e0 cette date sans risquer la moindre poursuite l\u00e9gale. Et c&#8217;est l\u00e0 que \u00e7a devient amusant parce que quand on demande \u00e0 Talkie-1930 de d\u00e9crire le futur, il imagine comme je vous le disais en intro, un monde domin\u00e9 par les bateaux \u00e0 vapeur et les trains et c&#8217;est logique car c&#8217;\u00e9tait l&#8217;horizon technologique de son corpus \u00e0 l&#8217;\u00e9poque. Le mod\u00e8le consid\u00e8re aussi qu&#8217;une seconde guerre mondiale est improbable (il ne conna\u00eet \u00e9videmment que la Premi\u00e8re) et du coup, \u00e7a donne un terrain d&#8217;exp\u00e9rimentation fascinant pour \u00e9tudier le raisonnement temporel et la g\u00e9n\u00e9ralisation hors distribution moderne. L&#8217;\u00e9quipe a publi\u00e9 trois checkpoints : talkie-1930-13b-base (mod\u00e8le brut), talkie-1930-13b-it (pour le chat) et talkie-web-13b-base (un jumeau d&#8217;architecture identique mais entra\u00een\u00e9 sur FineWeb \u00e0 titre de comparaison). Cette approche &#8220;mod\u00e8le jumeau&#8221; permet par exemple de mesurer pr\u00e9cis\u00e9ment ce qui vient de l&#8217;architecture vs ce qui vient des donn\u00e9es. Pour la phase de post-training, l&#8217;\u00e9quipe a utilis\u00e9 Claude Sonnet 4.6 comme juge dans une proc\u00e9dure DPO (Direct Preference Optimization). Ils ont \u00e9galement g\u00e9n\u00e9r\u00e9 des conversations synth\u00e9tiques entre Claude Opus 4.6 et Talkie pour le fine-tuning supervis\u00e9. Bref, c&#8217;est un mod\u00e8le ultra-vintage entra\u00een\u00e9 \u00e0 l&#8217;aide de mod\u00e8les ultra-modernes. L&#8217;\u00e9quipe travaille d\u00e9j\u00e0 sur un syst\u00e8me OCR custom pour les documents historiques (les OCR conventionnels n&#8217;atteignent que 30% de l&#8217;efficacit\u00e9 d&#8217;apprentissage face \u00e0 du texte transcrit manuellement) et vise un mod\u00e8le de niveau GPT-3 pour l&#8217;\u00e9t\u00e9 2026, avec un corpus pouvant atteindre plus d&#8217;un trillion de tokens. Bref, Talkie-1930 c&#8217;est un projet de recherche assez chouette pour tous ceux qui aiment creuser les LLMs. Le code est sur GitHub sous Apache 2.0, et la d\u00e9mo en ligne marche tr\u00e8s bien si vous voulez juste tester sans installer. Amusez-vous bien ! Source<\/p>\n","protected":false},"author":1,"featured_media":2878,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-2877","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2877","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=2877"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2877\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/2878"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=2877"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}