﻿﻿{"id":2853,"date":"2026-04-27T19:26:00","date_gmt":"2026-04-27T17:26:00","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/canonical-va-foutre-de-lia-partout-dans-ubuntu\/"},"modified":"2026-04-27T19:26:00","modified_gmt":"2026-04-27T17:26:00","slug":"canonical-va-foutre-de-lia-partout-dans-ubuntu","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/canonical-va-foutre-de-lia-partout-dans-ubuntu\/","title":{"rendered":"Canonical va foutre de l&#8217;IA partout dans Ubuntu"},"content":{"rendered":"<p>Jon Seager, VP Engineering chez Canonical, vient de poser sur le<br \/>\n<a href=\"https:\/\/discourse.ubuntu.com\/t\/the-future-of-ai-in-ubuntu\/81130\">Discourse Ubuntu<\/a><br \/>\n<strong>le plan IA de la distrib<\/strong> pour les 12 prochains mois. Et \u00e7a va saupoudrer partout, du speech-to-text am\u00e9lior\u00e9 aux workflows agentic, en passant par l&#8217;analyse automatis\u00e9e des logs serveur. Le timing est limpide, et \u00e0 peine<br \/>\n<a href=\"https:\/\/korben.info\/ubuntu-26-04-lts-passe-en-beta-avec-le-noyau-linux-7-0-et-gnome-50.html\">Ubuntu 26.04 LTS<\/a><br \/>\nest sortie que Canonical aligne d\u00e9j\u00e0 sa &#8220;next big thing&#8221;.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/ubuntu-ia-canonical-roadmap-2026\/ubuntu-ia-canonical-roadmap-2026-2.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Concr\u00e8tement, vous tapez <code>snap install nemotron-3-nano<\/code> et tadaa, vous r\u00e9cup\u00e9rez un mod\u00e8le local pr\u00e9-optimis\u00e9 pour votre silicium (genre 2 \u00e0 4 Go selon la quantization), avec un endpoint API compatible OpenAI servi sur localhost. C&#8217;est \u00e7a, leurs fameuses Inference Snaps.<\/p>\n<p>La liste tourne autour de Gemma 4 (Google DeepMind), Qwen-3.6-35B-A3B, Nemotron-3-nano, DeepSeek et Llama, et perso je trouve le choix plut\u00f4t coh\u00e9rent vu qu&#8217;il colle aux mod\u00e8les open weight les plus chauds du moment. Bien s\u00fbr, l&#8217;inf\u00e9rence est locale par d\u00e9faut plut\u00f4t que cloud, l&#8217;id\u00e9e \u00e9tant d&#8217;\u00e9viter d&#8217;envoyer vos prompts chez un tiers chaque fois que vous demandez un r\u00e9sum\u00e9 de log.<\/p>\n<p>C\u00f4t\u00e9 technique, tout passe par la sandbox<br \/>\n<a href=\"https:\/\/korben.info\/ubuntu-snap-snappy-paquet.html\">Snap<\/a><br \/>\npour g\u00e9rer les permissions, ce qui change pas mal la donne par rapport \u00e0 un binaire qui pourrait taper partout sur le disque.<\/p>\n<p>Ubuntu 26.04 LTS embarque d\u00e9j\u00e0 la &#8220;prompting capability&#8221; qui permet d&#8217;autoriser ou refuser l&#8217;acc\u00e8s aux mod\u00e8les app par app et les fonctionnalit\u00e9s attendues couvrent les ajustements cam\u00e9ra et micro (r\u00e9duction de bruit, flou d&#8217;arri\u00e8re-plan), l&#8217;accessibilit\u00e9 \u00e9cran, l&#8217;automatisation du troubleshooting, et c\u00f4t\u00e9 serveur, l&#8217;aide \u00e0 l&#8217;interpr\u00e9tation des incidents pour les \u00e9quipes SRE.<\/p>\n<p>Pour ceux qui bossent sur des fermes de serveurs, \u00e0 vrai dire c&#8217;est ce dernier point qui sera vraiment utile, parce que pour parser des logs \u00e0 la main quand \u00e7a part en cacahu\u00e8te, \u00e7a vaut le coup d&#8217;avoir une IA qui d\u00e9grossit.<\/p>\n<p>Le hic dans ce thread Discourse, c&#8217;est l&#8217;absence de killswitch IA global comme peut le propose Firefox. Plusieurs utilisateurs demandent un opt-in clair plut\u00f4t qu&#8217;un opt-out diffus, et un alignement explicite avec la d\u00e9finition Open Source AI de l&#8217;OSI.<\/p>\n<p>La r\u00e9ponse de Seager est nette, &#8220;<em>some features will use AI, and if you use those features, you&#8217;ll be using some sort of AI model<\/em>&#8220;. Donc pas de bouton &#8220;<em>d\u00e9sactive-moi tout \u00e7a<\/em>&#8220;, mais juste du contr\u00f4le granulaire au niveau Snap. Bref, comme d&#8217;hab, \u00e7a en calmera certains, mais vu comment certains ont litt\u00e9ralement fondu un plomb quand Firefox a adopt\u00e9 ses fonctionnalit\u00e9s IA (locales et d\u00e9sactivables, je le rappelle), j&#8217;image que Ubuntu va se prendre sa petite shitstorm de &#8220;<em>j&#8217;suis tout rouge et pas content<\/em>&#8221; dans pas longtemps&#8230;<\/p>\n<p>Cette ambigu\u00eft\u00e9 fait d&#8217;ailleurs d\u00e9j\u00e0 grincer des dents sur certaines cha\u00eenes YouTube de barbus, o\u00f9 le terme &#8220;Microsoft 2.0&#8221; ressort d\u00e9j\u00e0 dans plusieurs vid\u00e9os critiques. Ahaha, c&#8217;est toujours le m\u00eame gag ! Mais Canonical jure ses grand morts que ce sera diff\u00e9rent&#8230; Tenez la citation officielle &#8220;<em>Ubuntu is not becoming an AI product, but it can become stronger with thoughtful AI integration<\/em>&#8220;.<\/p>\n<p>Maintenant pour les sceptiques qui veulent tester sans s&#8217;engager, la bidouille est simple. D&#8217;abord, vous laissez les Inference Snaps non install\u00e9s (ils ne sont pas dans le seed par d\u00e9faut). Ensuite, vous bloquez les capabilities IA dans <code>snap connections<\/code>. Et comme \u00e7a vous gardez la main sur ce qui tourne en local.<\/p>\n<p>Apr\u00e8s si vous voulez exp\u00e9rimenter, l&#8217;API OpenAI-compatible permet de faire pointer n&#8217;importe quelle app dessus avec deux lignes de config, ce qui est vraiment pratique pour comparer un mod\u00e8le 3B local face \u00e0 GPT-4 cloud sur des t\u00e2ches pr\u00e9cises. Sauf si votre machine n&#8217;a pas assez de VRAM, et l\u00e0 le mod\u00e8le 3B va ramer comme un veau et vous reviendrez vite vers le cloud&#8230; pas glop.<\/p>\n<p>Il reste quand m\u00eame la vraie question, qui est celle de la transparence des datasets de training. L\u00e0 dessus, Canonical n&#8217;a pas encore donn\u00e9 de r\u00e9ponse claire, et c&#8217;est probablement l\u00e0 que se jouera la confiance long terme.<\/p>\n<p>Promettre l&#8217;open weight d\u00e9j\u00e0 c&#8217;est bien, mais expliquer comment les mod\u00e8les ont \u00e9t\u00e9 entra\u00een\u00e9s \u00e7a serait franchement mieux.<\/p>\n<p>Bref, \u00e0 surveiller fin 2026 quand les premi\u00e8res features atterriront vraiment sur les ordis des early adopters. Pour l&#8217;instant, la roadmap c&#8217;est surtout beaucoup d&#8217;intentions louables, mais bon, on en reparlera dans six mois.<\/p>\n<p>Source :<br \/>\n<a href=\"https:\/\/www.phoronix.com\/news\/Ubuntu-AI-Features-2026\">Phoronix<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Jon Seager, VP Engineering chez Canonical, vient de poser sur le Discourse Ubuntu le plan IA de la distrib pour les 12 prochains mois. Et \u00e7a va saupoudrer partout, du speech-to-text am\u00e9lior\u00e9 aux workflows agentic, en passant par l&#8217;analyse automatis\u00e9e des logs serveur. Le timing est limpide, et \u00e0 peine Ubuntu 26.04 LTS est sortie que Canonical aligne d\u00e9j\u00e0 sa &#8220;next big thing&#8221;. Concr\u00e8tement, vous tapez snap install nemotron-3-nano et tadaa, vous r\u00e9cup\u00e9rez un mod\u00e8le local pr\u00e9-optimis\u00e9 pour votre silicium (genre 2 \u00e0 4 Go selon la quantization), avec un endpoint API compatible OpenAI servi sur localhost. C&#8217;est \u00e7a, leurs fameuses Inference Snaps. La liste tourne autour de Gemma 4 (Google DeepMind), Qwen-3.6-35B-A3B, Nemotron-3-nano, DeepSeek et Llama, et perso je trouve le choix plut\u00f4t coh\u00e9rent vu qu&#8217;il colle aux mod\u00e8les open weight les plus chauds du moment. Bien s\u00fbr, l&#8217;inf\u00e9rence est locale par d\u00e9faut plut\u00f4t que cloud, l&#8217;id\u00e9e \u00e9tant d&#8217;\u00e9viter d&#8217;envoyer vos prompts chez un tiers chaque fois que vous demandez un r\u00e9sum\u00e9 de log. C\u00f4t\u00e9 technique, tout passe par la sandbox Snap pour g\u00e9rer les permissions, ce qui change pas mal la donne par rapport \u00e0 un binaire qui pourrait taper partout sur le disque. Ubuntu 26.04 LTS embarque d\u00e9j\u00e0 la &#8220;prompting capability&#8221; qui permet d&#8217;autoriser ou refuser l&#8217;acc\u00e8s aux mod\u00e8les app par app et les fonctionnalit\u00e9s attendues couvrent les ajustements cam\u00e9ra et micro (r\u00e9duction de bruit, flou d&#8217;arri\u00e8re-plan), l&#8217;accessibilit\u00e9 \u00e9cran, l&#8217;automatisation du troubleshooting, et c\u00f4t\u00e9 serveur, l&#8217;aide \u00e0 l&#8217;interpr\u00e9tation des incidents pour les \u00e9quipes SRE. Pour ceux qui bossent sur des fermes de serveurs, \u00e0 vrai dire c&#8217;est ce dernier point qui sera vraiment utile, parce que pour parser des logs \u00e0 la main quand \u00e7a part en cacahu\u00e8te, \u00e7a vaut le coup d&#8217;avoir une IA qui d\u00e9grossit. Le hic dans ce thread Discourse, c&#8217;est l&#8217;absence de killswitch IA global comme peut le propose Firefox. Plusieurs utilisateurs demandent un opt-in clair plut\u00f4t qu&#8217;un opt-out diffus, et un alignement explicite avec la d\u00e9finition Open Source AI de l&#8217;OSI. La r\u00e9ponse de Seager est nette, &#8220;some features will use AI, and if you use those features, you&#8217;ll be using some sort of AI model&#8220;. Donc pas de bouton &#8220;d\u00e9sactive-moi tout \u00e7a&#8220;, mais juste du contr\u00f4le granulaire au niveau Snap. Bref, comme d&#8217;hab, \u00e7a en calmera certains, mais vu comment certains ont litt\u00e9ralement fondu un plomb quand Firefox a adopt\u00e9 ses fonctionnalit\u00e9s IA (locales et d\u00e9sactivables, je le rappelle), j&#8217;image que Ubuntu va se prendre sa petite shitstorm de &#8220;j&#8217;suis tout rouge et pas content&#8221; dans pas longtemps&#8230; Cette ambigu\u00eft\u00e9 fait d&#8217;ailleurs d\u00e9j\u00e0 grincer des dents sur certaines cha\u00eenes YouTube de barbus, o\u00f9 le terme &#8220;Microsoft 2.0&#8221; ressort d\u00e9j\u00e0 dans plusieurs vid\u00e9os critiques. Ahaha, c&#8217;est toujours le m\u00eame gag ! Mais Canonical jure ses grand morts que ce sera diff\u00e9rent&#8230; Tenez la citation officielle &#8220;Ubuntu is not becoming an AI product, but it can become stronger with thoughtful AI integration&#8220;. Maintenant pour les sceptiques qui veulent tester sans s&#8217;engager, la bidouille est simple. D&#8217;abord, vous laissez les Inference Snaps non install\u00e9s (ils ne sont pas dans le seed par d\u00e9faut). Ensuite, vous bloquez les capabilities IA dans snap connections. Et comme \u00e7a vous gardez la main sur ce qui tourne en local. Apr\u00e8s si vous voulez exp\u00e9rimenter, l&#8217;API OpenAI-compatible permet de faire pointer n&#8217;importe quelle app dessus avec deux lignes de config, ce qui est vraiment pratique pour comparer un mod\u00e8le 3B local face \u00e0 GPT-4 cloud sur des t\u00e2ches pr\u00e9cises. Sauf si votre machine n&#8217;a pas assez de VRAM, et l\u00e0 le mod\u00e8le 3B va ramer comme un veau et vous reviendrez vite vers le cloud&#8230; pas glop. Il reste quand m\u00eame la vraie question, qui est celle de la transparence des datasets de training. L\u00e0 dessus, Canonical n&#8217;a pas encore donn\u00e9 de r\u00e9ponse claire, et c&#8217;est probablement l\u00e0 que se jouera la confiance long terme. Promettre l&#8217;open weight d\u00e9j\u00e0 c&#8217;est bien, mais expliquer comment les mod\u00e8les ont \u00e9t\u00e9 entra\u00een\u00e9s \u00e7a serait franchement mieux. Bref, \u00e0 surveiller fin 2026 quand les premi\u00e8res features atterriront vraiment sur les ordis des early adopters. Pour l&#8217;instant, la roadmap c&#8217;est surtout beaucoup d&#8217;intentions louables, mais bon, on en reparlera dans six mois. Source : Phoronix<\/p>\n","protected":false},"author":1,"featured_media":2854,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-2853","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2853","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=2853"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2853\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/2854"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=2853"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}