﻿﻿{"id":1825,"date":"2025-12-16T09:19:55","date_gmt":"2025-12-16T08:19:55","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/fini-le-perroquet-stochastique-le-modele-o1-dopenai-comprend-la-structure-du-langage\/"},"modified":"2025-12-16T09:19:55","modified_gmt":"2025-12-16T08:19:55","slug":"fini-le-perroquet-stochastique-le-modele-o1-dopenai-comprend-la-structure-du-langage","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/fini-le-perroquet-stochastique-le-modele-o1-dopenai-comprend-la-structure-du-langage\/","title":{"rendered":"Fini le perroquet stochastique ? Le mod\u00e8le o1 d&#8217;OpenAI comprend la structure du langage"},"content":{"rendered":"<p>Vous vous \u00eates d\u00e9j\u00e0 demand\u00e9 si les IA comprenaient vraiment ce qu&#8217;elles racontaient, ou si elles ne faisaient que recracher des mots \u00e0 partir de statistiques li\u00e9es aux mots ?<\/p>\n<p>Oui, comme vous, je pensais jusqu&#8217;\u00e0 pr\u00e9sent qu&#8217;on \u00e9tait vraiment sur un d\u00e9roul\u00e9 textuel purement math\u00e9matique sans r\u00e9elle compr\u00e9hension. H\u00e9 bien des chercheurs de UC Berkeley viennent de mettre <strong>un gros pav\u00e9 dans la mare<\/strong> en d\u00e9montrant que le <strong>mod\u00e8le o1 d&#8217;OpenAI<\/strong> est capable d&#8217;analyser le langage comme le ferait un \u00e9tudiant en linguistique. Pas juste d&#8217;utiliser le langage, hein mais vraiment de l&#8217;analyser, le d\u00e9cortiquer, le comprendre dans sa structure profonde.<\/p>\n<p>L&#8217;\u00e9tude a \u00e9t\u00e9 men\u00e9e par Ga\u0161per Begu\u0161, prof associ\u00e9 de linguistique \u00e0 Berkeley, avec ses coll\u00e8gues Maksymilian D\u0105bkowski et Ryan Rhodes de Rutgers University et les r\u00e9sultats sont publi\u00e9s dans IEEE Transactions on Artificial Intelligence,<br \/>\n<a href=\"https:\/\/www.wired.com\/story\/in-a-first-ai-models-analyze-language-as-well-as-a-human-expert\/\">donc \u00e7a a l&#8217;air d&#8217;\u00eatre du s\u00e9rieux<\/a><br \/>\n.<\/p>\n<p>Leur truc, c&#8217;\u00e9tait de tester si les mod\u00e8les de langage (LLM) pouvaient faire de la m\u00e9talinguistique, qui est la capacit\u00e9 non pas simplement d&#8217;utiliser une langue, mais aussi de r\u00e9fl\u00e9chir sur la langue elle-m\u00eame. C&#8217;est un truc que les humains font naturellement quand ils analysent une phrase, et qu&#8217;on a pour le moment jamais observ\u00e9 chez l&#8217;animal.<\/p>\n<p>Pour leurs exp\u00e9riences, l&#8217;\u00e9quipe a donc balanc\u00e9 120 phrases complexes dans quatre mod\u00e8les diff\u00e9rents : GPT-3.5 Turbo, GPT-4, o1 d&#8217;OpenAI, et Llama 3.1 de Meta et ils ont regard\u00e9 comment chaque mod\u00e8le s&#8217;en sortait pour analyser la structure des phrases et r\u00e9soudre les ambigu\u00eft\u00e9s, notamment avec la r\u00e9cursion.<\/p>\n<p>La<br \/>\n<a href=\"https:\/\/fr.wikipedia.org\/wiki\/R%C3%A9cursivit%C3%A9_%28linguistique%29\">r\u00e9cursion<\/a><br \/>\n, c&#8217;est un concept que Noam Chomsky a th\u00e9oris\u00e9 comme \u00e9tant la caract\u00e9ristique d\u00e9finitoire du langage humain. C&#8217;est en fait la capacit\u00e9 d&#8217;imbriquer des phrases dans d&#8217;autres phrases, \u00e0 l&#8217;infini. Genre &#8220;<em>Le chat que le chien que Pierre a vu a mordu dort<\/em>&#8220;. Ouais, c&#8217;est tordu, mais c&#8217;est \u00e7a qui nous diff\u00e9rencie aussi des autres animaux.<\/p>\n<p>Et tous ces mod\u00e8les ont r\u00e9ussi \u00e0 identifier les phrases r\u00e9cursives, ce qui, jusque-l\u00e0, n&#8217;a rien d&#8217;extraordinaire sauf que pour cartographier correctement la structure complexe des phrases, o1 a cartonn\u00e9 avec un score proche de 0.9 sur 1, contre une moyenne de 0.36 pour les autres. C&#8217;est un tr\u00e8s gros \u00e9cart.<\/p>\n<p>Je vais vous donner un exemple concret. Avec la phrase &#8220;<em>Unidentified flying objects may have conflicting characteristics<\/em>&#8221; (les objets volants non identifi\u00e9s peuvent avoir des caract\u00e9ristiques contradictoires), o1 a correctement d\u00e9tect\u00e9 la r\u00e9cursion. &#8220;Flying&#8221; modifie &#8220;objects&#8221;, et &#8220;unidentified&#8221; modifie &#8220;flying objects&#8221;. Il a m\u00eame pouss\u00e9 le bouchon encore plus loin en proposant une extension de la phrase pour montrer qu&#8217;il avait compris le m\u00e9canisme.<\/p>\n<p>Mais les chercheurs ne se sont pas arr\u00eat\u00e9s l\u00e0 car pour \u00e9viter que o1 ne triche en utilisant des donn\u00e9es de son entra\u00eenement, ils ont invent\u00e9 30 mini-langues fictives avec leurs propres r\u00e8gles phonologiques. L&#8217;id\u00e9e, c&#8217;\u00e9tait de voir si le mod\u00e8le pouvait inf\u00e9rer les r\u00e8gles d&#8217;une langue qu&#8217;il n&#8217;a jamais vue. Et comme vous vous en doutez, o1 s&#8217;en est sorti comme un chef.<\/p>\n<p>Bref, non seulement ces mod\u00e8les peuvent utiliser le langage, mais certains peuvent &#8220;r\u00e9fl\u00e9chir&#8221; \u00e0 la fa\u00e7on dont le langage est organis\u00e9.<\/p>\n<p>Ce qui est dingue, c&#8217;est que cette \u00e9tude relance le d\u00e9bat sur la compr\u00e9hension des IA. Est-ce que ces mod\u00e8les comprennent vraiment ce qu&#8217;ils font, ou est-ce qu&#8217;ils simulent tr\u00e8s bien ? Begu\u0161 pense que cette capacit\u00e9 m\u00e9talinguistique est &#8220;tr\u00e8s cons\u00e9quente&#8221; parce qu&#8217;elle montre que dans ces mod\u00e8les, on a d\u00e9sormais quelque chose qu&#8217;on pensait r\u00e9serv\u00e9 aux humains.<\/p>\n<p>Attention cependant, qui dit capacit\u00e9 m\u00e9talinguistique ne veut pas dire que l&#8217;IA est consciente ou qu&#8217;elle pense comme nous. Faut voir \u00e7a plut\u00f4t comme une capacit\u00e9 \u00e9mergente qu&#8217;on n&#8217;a pas programm\u00e9e explicitement, et qui est sacr\u00e9ment int\u00e9ressante d&#8217;un point de vue scientifique.<\/p>\n<p>Voil\u00e0, donc si comme moi, vous pensiez que ChatGPT ne faisait que du perroquet statistique, cette \u00e9tude sugg\u00e8re visiblement que c&#8217;est un plus subtil que \u00e7a. Il faudra bien s\u00fbr plus d&#8217;\u00e9tudes pour mieux comprendre ce ph\u00e9nom\u00e8ne mais il est maintenant clair que ces mod\u00e8les r\u00e9cents ont des capacit\u00e9s qu&#8217;on croyait exclusives aux humains.<\/p>\n<p>\n<a href=\"https:\/\/www.quantamagazine.org\/in-a-first-ai-models-analyze-language-as-well-as-a-human-expert-20251031\/\">Source<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vous vous \u00eates d\u00e9j\u00e0 demand\u00e9 si les IA comprenaient vraiment ce qu&#8217;elles racontaient, ou si elles ne faisaient que recracher des mots \u00e0 partir de statistiques li\u00e9es aux mots ? Oui, comme vous, je pensais jusqu&#8217;\u00e0 pr\u00e9sent qu&#8217;on \u00e9tait vraiment sur un d\u00e9roul\u00e9 textuel purement math\u00e9matique sans r\u00e9elle compr\u00e9hension. H\u00e9 bien des chercheurs de UC Berkeley viennent de mettre un gros pav\u00e9 dans la mare en d\u00e9montrant que le mod\u00e8le o1 d&#8217;OpenAI est capable d&#8217;analyser le langage comme le ferait un \u00e9tudiant en linguistique. Pas juste d&#8217;utiliser le langage, hein mais vraiment de l&#8217;analyser, le d\u00e9cortiquer, le comprendre dans sa structure profonde. L&#8217;\u00e9tude a \u00e9t\u00e9 men\u00e9e par Ga\u0161per Begu\u0161, prof associ\u00e9 de linguistique \u00e0 Berkeley, avec ses coll\u00e8gues Maksymilian D\u0105bkowski et Ryan Rhodes de Rutgers University et les r\u00e9sultats sont publi\u00e9s dans IEEE Transactions on Artificial Intelligence, donc \u00e7a a l&#8217;air d&#8217;\u00eatre du s\u00e9rieux . Leur truc, c&#8217;\u00e9tait de tester si les mod\u00e8les de langage (LLM) pouvaient faire de la m\u00e9talinguistique, qui est la capacit\u00e9 non pas simplement d&#8217;utiliser une langue, mais aussi de r\u00e9fl\u00e9chir sur la langue elle-m\u00eame. C&#8217;est un truc que les humains font naturellement quand ils analysent une phrase, et qu&#8217;on a pour le moment jamais observ\u00e9 chez l&#8217;animal. Pour leurs exp\u00e9riences, l&#8217;\u00e9quipe a donc balanc\u00e9 120 phrases complexes dans quatre mod\u00e8les diff\u00e9rents : GPT-3.5 Turbo, GPT-4, o1 d&#8217;OpenAI, et Llama 3.1 de Meta et ils ont regard\u00e9 comment chaque mod\u00e8le s&#8217;en sortait pour analyser la structure des phrases et r\u00e9soudre les ambigu\u00eft\u00e9s, notamment avec la r\u00e9cursion. La r\u00e9cursion , c&#8217;est un concept que Noam Chomsky a th\u00e9oris\u00e9 comme \u00e9tant la caract\u00e9ristique d\u00e9finitoire du langage humain. C&#8217;est en fait la capacit\u00e9 d&#8217;imbriquer des phrases dans d&#8217;autres phrases, \u00e0 l&#8217;infini. Genre &#8220;Le chat que le chien que Pierre a vu a mordu dort&#8220;. Ouais, c&#8217;est tordu, mais c&#8217;est \u00e7a qui nous diff\u00e9rencie aussi des autres animaux. Et tous ces mod\u00e8les ont r\u00e9ussi \u00e0 identifier les phrases r\u00e9cursives, ce qui, jusque-l\u00e0, n&#8217;a rien d&#8217;extraordinaire sauf que pour cartographier correctement la structure complexe des phrases, o1 a cartonn\u00e9 avec un score proche de 0.9 sur 1, contre une moyenne de 0.36 pour les autres. C&#8217;est un tr\u00e8s gros \u00e9cart. Je vais vous donner un exemple concret. Avec la phrase &#8220;Unidentified flying objects may have conflicting characteristics&#8221; (les objets volants non identifi\u00e9s peuvent avoir des caract\u00e9ristiques contradictoires), o1 a correctement d\u00e9tect\u00e9 la r\u00e9cursion. &#8220;Flying&#8221; modifie &#8220;objects&#8221;, et &#8220;unidentified&#8221; modifie &#8220;flying objects&#8221;. Il a m\u00eame pouss\u00e9 le bouchon encore plus loin en proposant une extension de la phrase pour montrer qu&#8217;il avait compris le m\u00e9canisme. Mais les chercheurs ne se sont pas arr\u00eat\u00e9s l\u00e0 car pour \u00e9viter que o1 ne triche en utilisant des donn\u00e9es de son entra\u00eenement, ils ont invent\u00e9 30 mini-langues fictives avec leurs propres r\u00e8gles phonologiques. L&#8217;id\u00e9e, c&#8217;\u00e9tait de voir si le mod\u00e8le pouvait inf\u00e9rer les r\u00e8gles d&#8217;une langue qu&#8217;il n&#8217;a jamais vue. Et comme vous vous en doutez, o1 s&#8217;en est sorti comme un chef. Bref, non seulement ces mod\u00e8les peuvent utiliser le langage, mais certains peuvent &#8220;r\u00e9fl\u00e9chir&#8221; \u00e0 la fa\u00e7on dont le langage est organis\u00e9. Ce qui est dingue, c&#8217;est que cette \u00e9tude relance le d\u00e9bat sur la compr\u00e9hension des IA. Est-ce que ces mod\u00e8les comprennent vraiment ce qu&#8217;ils font, ou est-ce qu&#8217;ils simulent tr\u00e8s bien ? Begu\u0161 pense que cette capacit\u00e9 m\u00e9talinguistique est &#8220;tr\u00e8s cons\u00e9quente&#8221; parce qu&#8217;elle montre que dans ces mod\u00e8les, on a d\u00e9sormais quelque chose qu&#8217;on pensait r\u00e9serv\u00e9 aux humains. Attention cependant, qui dit capacit\u00e9 m\u00e9talinguistique ne veut pas dire que l&#8217;IA est consciente ou qu&#8217;elle pense comme nous. Faut voir \u00e7a plut\u00f4t comme une capacit\u00e9 \u00e9mergente qu&#8217;on n&#8217;a pas programm\u00e9e explicitement, et qui est sacr\u00e9ment int\u00e9ressante d&#8217;un point de vue scientifique. Voil\u00e0, donc si comme moi, vous pensiez que ChatGPT ne faisait que du perroquet statistique, cette \u00e9tude sugg\u00e8re visiblement que c&#8217;est un plus subtil que \u00e7a. Il faudra bien s\u00fbr plus d&#8217;\u00e9tudes pour mieux comprendre ce ph\u00e9nom\u00e8ne mais il est maintenant clair que ces mod\u00e8les r\u00e9cents ont des capacit\u00e9s qu&#8217;on croyait exclusives aux humains. Source<\/p>\n","protected":false},"author":1,"featured_media":1826,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1825","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1825","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1825"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1825\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1826"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1825"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}