﻿﻿{"id":2599,"date":"2026-03-24T11:10:09","date_gmt":"2026-03-24T10:10:09","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/et-si-lia-consommait-moins-denergie-que-google\/"},"modified":"2026-03-24T11:10:09","modified_gmt":"2026-03-24T10:10:09","slug":"et-si-lia-consommait-moins-denergie-que-google","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/et-si-lia-consommait-moins-denergie-que-google\/","title":{"rendered":"Et si l&#8217;IA consommait moins d&#8217;\u00e9nergie que Google ?"},"content":{"rendered":"<p>&#8220;<em>Une requ\u00eate ChatGPT consomme 10 fois plus d&#8217;\u00e9nergie qu&#8217;une recherche Google.<\/em>&#8220;<\/p>\n<p>Cette phrase, vous l&#8217;avez lue 100 fois. Mais est-ce vraiment vrai ?<\/p>\n<p>Charles Duprat, chercheur en inclusion num\u00e9rique, vient de publier un papier qui retourne compl\u00e8tement ce chiffre. Et m\u00eame si je suis incapable de v\u00e9rifier la validit\u00e9 scientifique de tout ce qu&#8217;il avance, \u00e7a vaut le coup d&#8217;en parler.<\/p>\n<p>Son argument de base est simple et pas con. En fait quand on compare l&#8217;\u00e9nergie d&#8217;une requ\u00eate IA vs une recherche Google, on ne regarde en fait que ce qui se passe c\u00f4t\u00e9 serveur, plut\u00f4t que l&#8217;ensemble de la cha\u00eene. Le GPU Nvidia qui mouline d&#8217;un c\u00f4t\u00e9, l&#8217;index Google qui r\u00e9pond de l&#8217;autre.<\/p>\n<p>Sauf que dans la vraie vie, une recherche web sur votre iPhone ou votre Android, c&#8217;est clairement pas juste un serveur qui tourne ! C&#8217;est le t\u00e9l\u00e9chargement de plusieurs m\u00e9gaoctets via la 4G, c&#8217;est du JavaScript et du CSS qui font chauffer le CPU de votre t\u00e9l\u00e9phone, c&#8217;est du temps d&#8217;\u00e9cran, et surtout c&#8217;est des dizaines de scripts publicitaires et de trackers qui tournent en arri\u00e8re-plan. Et rien de tout \u00e7a n&#8217;appara\u00eet dans le bilan &#8220;officiel&#8221;.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/etude-ia-moins-energie-recherche-web\/etude-ia-moins-energie-recherche-web-1.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>Du coup, le chercheur a mod\u00e9lis\u00e9 la comparaison au niveau de la session utilisateur compl\u00e8te. Donc pas juste la requ\u00eate serveur, mais tout le trajet : r\u00e9seau mobile, rendu de page, pubs, temps pass\u00e9 \u00e0 lire. Et l\u00e0, les r\u00e9sultats sont contre-intuitifs car pour une t\u00e2che complexe sur mobile (genre comparer des pompes \u00e0 chaleur et des chaudi\u00e8res gaz), une session LLM consommerait environ 5,4 fois moins d&#8217;\u00e9nergie qu&#8217;une session de recherche web classique. Dans le pire des cas mod\u00e9lis\u00e9, l&#8217;avantage reste quand m\u00eame de 1,6 fois.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/etude-ia-moins-energie-recherche-web\/etude-ia-moins-energie-recherche-web-2.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>Alors d&#8217;o\u00f9 \u00e7a vient ?<\/p>\n<p>D&#8217;abord, la page web m\u00e9diane sur mobile p\u00e8se 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari qui est ensuite transmise en 4G \u00e0 0,17 kWh\/Go, et \u00e7a, \u00e7a co\u00fbte d\u00e9j\u00e0 plus en \u00e9nergie r\u00e9seau qu&#8217;une inf\u00e9rence LLM compl\u00e8te. Une r\u00e9ponse ChatGPT ou Claude, c&#8217;est environ 5 Ko de texte brut. Le ratio de transmission est de 500 pour 1 avant m\u00eame de parler du reste. Quand on sait d\u00e9j\u00e0 que la<br \/>\n<a href=\"https:\/\/korben.info\/datacenter-eau-verite-chiffres.html\">consommation r\u00e9elle des datacenters<\/a><br \/>\nest un sujet \u00e0 tiroirs, \u00e7a relativise pas mal.<\/p>\n<p>Et puis y&#8217;a le boulet de la pub programmatique ! Des \u00e9tudes (Khan et al., 2024) montrent que les bloqueurs de pub int\u00e9gr\u00e9s comme Brave r\u00e9duisent la consommation \u00e9lectrique du terminal de 15 \u00e0 44%. En gros, quand vous naviguez sur un site d&#8217;actu classique, jusqu&#8217;\u00e0 41% de l&#8217;\u00e9nergie de la session sert \u00e0 charger et ex\u00e9cuter du JavaScript publicitaire. H\u00e9 bien le LLM court-circuite tout \u00e7a en vous filant une r\u00e9ponse texte directe.<\/p>\n<p>Comme je vous le disais en intro, je suis totalement incapable de valider la m\u00e9thodologie de cette \u00e9tude&#8230; Allez savoir si les param\u00e8tres sont bien calibr\u00e9s. Et c&#8217;est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L&#8217;auteur se base sur des chiffres publi\u00e9s par Google pour Gemini (0,24 Wh par prompt, issu d&#8217;un papier arXiv), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-m\u00eame (0,34 Wh). Et comme ces chiffres viennent des constructeurs eux-m\u00eames, \u00e7a m\u00e9rite qu&#8217;on garde un oeil critique.<\/p>\n<p>Par contre, l&#8217;\u00e9tude a aussi l&#8217;honn\u00eatet\u00e9 de poser ses propres limites car l&#8217;avantage s&#8217;effondre pour les requ\u00eates simples en Wi-Fi depuis votre PC ou Mac (quasi parit\u00e9 LLM &lt;&gt; Google). Et surtout, \u00e7a s&#8217;inverse violemment d\u00e8s qu&#8217;on passe aux mod\u00e8les de raisonnement type o3 ou Deep Think, qui consomment 30 \u00e0 700 fois plus qu&#8217;une inf\u00e9rence standard parce qu&#8217;ils g\u00e9n\u00e8rent des cha\u00eenes de pens\u00e9e \u00e0 rallonge.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/etude-ia-moins-energie-recherche-web\/etude-ia-moins-energie-recherche-web-3.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>Le paradoxe de Jevons est aussi mentionn\u00e9 : si l&#8217;IA est plus efficace par requ\u00eate, les gens en feront forc\u00e9ment plus, donc la consommation globale augmentera quand m\u00eame. Et la question des<br \/>\n<a href=\"https:\/\/korben.info\/ia-eco-responsable-modeles-efficaces-moins-energivores.html\">mod\u00e8les \u00e9co-responsables<\/a><br \/>\nreste elle aussi enti\u00e8re.<\/p>\n<p>Mais bon, cette \u00e9tude remet quand m\u00eame en question un truc qu&#8217;on r\u00e9p\u00e8te tous sans trop r\u00e9fl\u00e9chir. Comparer un serveur IA \u00e0 un serveur Google, c&#8217;est oublier que la recherche web moderne, c&#8217;est devenu &#8220;recherche + publicit\u00e9 + r\u00e9seau mobile + rendering JavaScript + temps d&#8217;attention&#8221;. Et comme Google lui-m\u00eame commence \u00e0 coller de l&#8217;IA (les AI Overviews) en plus par-dessus ses r\u00e9sultats classiques, \u00e7a devient un joyeux bordel \u00e0 mesurer&#8230;<\/p>\n<p>Bref,<br \/>\n<a href=\"https:\/\/dupr.at\/thermodynamic-efficiency-inversion\">lisez l&#8217;\u00e9tude vous-m\u00eames<\/a><br \/>\n, c&#8217;est en acc\u00e8s libre. Et faites-vous votre propre avis !<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&#8220;Une requ\u00eate ChatGPT consomme 10 fois plus d&#8217;\u00e9nergie qu&#8217;une recherche Google.&#8220; Cette phrase, vous l&#8217;avez lue 100 fois. Mais est-ce vraiment vrai ? Charles Duprat, chercheur en inclusion num\u00e9rique, vient de publier un papier qui retourne compl\u00e8tement ce chiffre. Et m\u00eame si je suis incapable de v\u00e9rifier la validit\u00e9 scientifique de tout ce qu&#8217;il avance, \u00e7a vaut le coup d&#8217;en parler. Son argument de base est simple et pas con. En fait quand on compare l&#8217;\u00e9nergie d&#8217;une requ\u00eate IA vs une recherche Google, on ne regarde en fait que ce qui se passe c\u00f4t\u00e9 serveur, plut\u00f4t que l&#8217;ensemble de la cha\u00eene. Le GPU Nvidia qui mouline d&#8217;un c\u00f4t\u00e9, l&#8217;index Google qui r\u00e9pond de l&#8217;autre. Sauf que dans la vraie vie, une recherche web sur votre iPhone ou votre Android, c&#8217;est clairement pas juste un serveur qui tourne ! C&#8217;est le t\u00e9l\u00e9chargement de plusieurs m\u00e9gaoctets via la 4G, c&#8217;est du JavaScript et du CSS qui font chauffer le CPU de votre t\u00e9l\u00e9phone, c&#8217;est du temps d&#8217;\u00e9cran, et surtout c&#8217;est des dizaines de scripts publicitaires et de trackers qui tournent en arri\u00e8re-plan. Et rien de tout \u00e7a n&#8217;appara\u00eet dans le bilan &#8220;officiel&#8221;. Du coup, le chercheur a mod\u00e9lis\u00e9 la comparaison au niveau de la session utilisateur compl\u00e8te. Donc pas juste la requ\u00eate serveur, mais tout le trajet : r\u00e9seau mobile, rendu de page, pubs, temps pass\u00e9 \u00e0 lire. Et l\u00e0, les r\u00e9sultats sont contre-intuitifs car pour une t\u00e2che complexe sur mobile (genre comparer des pompes \u00e0 chaleur et des chaudi\u00e8res gaz), une session LLM consommerait environ 5,4 fois moins d&#8217;\u00e9nergie qu&#8217;une session de recherche web classique. Dans le pire des cas mod\u00e9lis\u00e9, l&#8217;avantage reste quand m\u00eame de 1,6 fois. Alors d&#8217;o\u00f9 \u00e7a vient ? D&#8217;abord, la page web m\u00e9diane sur mobile p\u00e8se 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari qui est ensuite transmise en 4G \u00e0 0,17 kWh\/Go, et \u00e7a, \u00e7a co\u00fbte d\u00e9j\u00e0 plus en \u00e9nergie r\u00e9seau qu&#8217;une inf\u00e9rence LLM compl\u00e8te. Une r\u00e9ponse ChatGPT ou Claude, c&#8217;est environ 5 Ko de texte brut. Le ratio de transmission est de 500 pour 1 avant m\u00eame de parler du reste. Quand on sait d\u00e9j\u00e0 que la consommation r\u00e9elle des datacenters est un sujet \u00e0 tiroirs, \u00e7a relativise pas mal. Et puis y&#8217;a le boulet de la pub programmatique ! Des \u00e9tudes (Khan et al., 2024) montrent que les bloqueurs de pub int\u00e9gr\u00e9s comme Brave r\u00e9duisent la consommation \u00e9lectrique du terminal de 15 \u00e0 44%. En gros, quand vous naviguez sur un site d&#8217;actu classique, jusqu&#8217;\u00e0 41% de l&#8217;\u00e9nergie de la session sert \u00e0 charger et ex\u00e9cuter du JavaScript publicitaire. H\u00e9 bien le LLM court-circuite tout \u00e7a en vous filant une r\u00e9ponse texte directe. Comme je vous le disais en intro, je suis totalement incapable de valider la m\u00e9thodologie de cette \u00e9tude&#8230; Allez savoir si les param\u00e8tres sont bien calibr\u00e9s. Et c&#8217;est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L&#8217;auteur se base sur des chiffres publi\u00e9s par Google pour Gemini (0,24 Wh par prompt, issu d&#8217;un papier arXiv), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-m\u00eame (0,34 Wh). Et comme ces chiffres viennent des constructeurs eux-m\u00eames, \u00e7a m\u00e9rite qu&#8217;on garde un oeil critique. Par contre, l&#8217;\u00e9tude a aussi l&#8217;honn\u00eatet\u00e9 de poser ses propres limites car l&#8217;avantage s&#8217;effondre pour les requ\u00eates simples en Wi-Fi depuis votre PC ou Mac (quasi parit\u00e9 LLM &lt;&gt; Google). Et surtout, \u00e7a s&#8217;inverse violemment d\u00e8s qu&#8217;on passe aux mod\u00e8les de raisonnement type o3 ou Deep Think, qui consomment 30 \u00e0 700 fois plus qu&#8217;une inf\u00e9rence standard parce qu&#8217;ils g\u00e9n\u00e8rent des cha\u00eenes de pens\u00e9e \u00e0 rallonge. Le paradoxe de Jevons est aussi mentionn\u00e9 : si l&#8217;IA est plus efficace par requ\u00eate, les gens en feront forc\u00e9ment plus, donc la consommation globale augmentera quand m\u00eame. Et la question des mod\u00e8les \u00e9co-responsables reste elle aussi enti\u00e8re. Mais bon, cette \u00e9tude remet quand m\u00eame en question un truc qu&#8217;on r\u00e9p\u00e8te tous sans trop r\u00e9fl\u00e9chir. Comparer un serveur IA \u00e0 un serveur Google, c&#8217;est oublier que la recherche web moderne, c&#8217;est devenu &#8220;recherche + publicit\u00e9 + r\u00e9seau mobile + rendering JavaScript + temps d&#8217;attention&#8221;. Et comme Google lui-m\u00eame commence \u00e0 coller de l&#8217;IA (les AI Overviews) en plus par-dessus ses r\u00e9sultats classiques, \u00e7a devient un joyeux bordel \u00e0 mesurer&#8230; Bref, lisez l&#8217;\u00e9tude vous-m\u00eames , c&#8217;est en acc\u00e8s libre. Et faites-vous votre propre avis !<\/p>\n","protected":false},"author":1,"featured_media":2600,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-2599","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2599","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=2599"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2599\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/2600"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=2599"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}