﻿﻿{"id":1821,"date":"2025-12-16T12:42:43","date_gmt":"2025-12-16T11:42:43","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/nemotron-3-nvidia-debarque-dans-lopen-source-et-crache-du-token-comme-jamais\/"},"modified":"2025-12-16T12:42:43","modified_gmt":"2025-12-16T11:42:43","slug":"nemotron-3-nvidia-debarque-dans-lopen-source-et-crache-du-token-comme-jamais","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/nemotron-3-nvidia-debarque-dans-lopen-source-et-crache-du-token-comme-jamais\/","title":{"rendered":"Nemotron 3 &#8211; Nvidia d\u00e9barque dans l&#8217;open source et crache du token comme jamais"},"content":{"rendered":"<p>Vous voulez faire tourner un mod\u00e8le d&#8217;IA en local sans avoir besoin d&#8217;un serveur de la NASA ? Eh bien Nvidia vient de l\u00e2cher une bombe avec <strong>Nemotron 3<\/strong>, une famille de mod\u00e8les open source plut\u00f4t impressionnant et surtout, ils ont publi\u00e9 leurs donn\u00e9es d&#8217;entra\u00eenement afin de jouer la transparence totale. Chapeau !<\/p>\n<p>Le mod\u00e8le phare de cette nouvelle famille s&#8217;appelle <strong>Nemotron 3 Nano<\/strong> et c&#8217;est un mod\u00e8le de 30 milliards de param\u00e8tres, mais attention, il n&#8217;en active que 3,5 milliards \u00e0 la fois gr\u00e2ce \u00e0 une architecture hybride qui m\u00e9lange du<br \/>\n<a href=\"https:\/\/fr.wikipedia.org\/wiki\/Mamba_%28apprentissage_profond%29\">Mamba-2<\/a><br \/>\net du Mixture-of-Experts (<br \/>\n<a href=\"https:\/\/www.nvidia.com\/en-us\/glossary\/mixture-of-experts\/\">MoE<\/a><br \/>\n). \u00c7a permet de garder des performances de ouf tout en restant l\u00e9ger niveau ressources.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/nvidia-nemotron-3-nano-modele-ia-open-source-2\/nvidia-nemotron-3-nano-modele-ia-open-source-2-1.jpg\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>Sous le capot, Nvidia a \u00e9galement mis le paquet puisque le mod\u00e8le a \u00e9t\u00e9 entra\u00een\u00e9 sur 25 trillions de tokens. J&#8217;ai bien dit &#8220;trillions&#8221;&#8230; Pour vous donner une id\u00e9e, les donn\u00e9es d&#8217;entra\u00eenement incluent du<br \/>\n<a href=\"https:\/\/commoncrawl.org\/\">Common Crawl<\/a><br \/>\nde 2013 \u00e0 2025, du code dans 43 langages diff\u00e9rents, des articles scientifiques, et une tonne de donn\u00e9es synth\u00e9tiques g\u00e9n\u00e9r\u00e9es par d&#8217;autres mod\u00e8les. Et tout \u00e7a, Nvidia l&#8217;a rendu public donc<br \/>\n<a href=\"https:\/\/huggingface.co\/nvidia\/NVIDIA-Nemotron-3-Nano-30B-A3B-FP8\">vous pouvez t\u00e9l\u00e9charger les datasets sur Hugging Face<\/a><br \/>\net v\u00e9rifier par vous-m\u00eame ce qui a servi \u00e0 entra\u00eener le bouzin.<\/p>\n<p>C\u00f4t\u00e9 performances, Nemotron 3 Nano<br \/>\n<a href=\"https:\/\/artificialanalysis.ai\/models\/nvidia-nemotron-3-nano-30b-a3b-reasoning?intelligence-comparison=intelligence-vs-output-speed&amp;models=gpt-oss-20b%2Cllama-4-maverick%2Cllama-4-scout%2Cmagistral-medium-2509%2Cnvidia-nemotron-nano-9b-v2-reasoning%2Cnvidia-nemotron-nano-12b-v2-vl-reasoning%2Cnvidia-nemotron-3-nano-30b-a3b-reasoning%2Colmo-3-32b-think%2Capriel-v1-6-15b-thinker%2Cqwen3-30b-a3b-2507-reasoning\">se d\u00e9fend plut\u00f4t bien<\/a><br \/>\n. Sur les benchmarks de raisonnement math\u00e9matique comme AIME25, il atteint 99,2% quand on lui donne acc\u00e8s \u00e0 des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les t\u00e2ches d&#8217;agent logiciel genre SWE-Bench, il monte \u00e0 38,8%. Pas mal pour un mod\u00e8le qu&#8217;on peut faire tourner sur du matos grand public.<\/p>\n<p>D&#8217;ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou m\u00eame la future RTX PRO 6000 et supporte jusqu&#8217;\u00e0 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un d\u00e9bit de tokens 4 fois sup\u00e9rieur \u00e0 la g\u00e9n\u00e9ration pr\u00e9c\u00e9dente, avec 60% de tokens de raisonnement en moins. C&#8217;est donc exactement ce que tout le monde demande \u00e0 saoir du token qui sort vite pour les workflows agentiques.<\/p>\n<p>Maintenant, pour l&#8217;utiliser, c&#8217;est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou m\u00eame llama.cpp. Y&#8217;a m\u00eame un mode &#8220;thinking&#8221; qu&#8217;on peut activer ou d\u00e9sactiver selon si on veut du raisonnement pouss\u00e9 ou des r\u00e9ponses rapides.<\/p>\n<p>Pour ma part, je l&#8217;ai test\u00e9 \u00e0 l&#8217;aide d&#8217;Ollama comme ceci :<\/p>\n<div class=\"highlight\">\n<pre class=\"chroma\"><code class=\"language-fallback\" data-lang=\"fallback\"><span class=\"line\"><span class=\"cl\">ollama run nemotron-3-nano:30b\n<\/span><\/span><\/code><\/pre>\n<p>J&#8217;ai trouv\u00e9 que vitesse de g\u00e9n\u00e9ration \u00e9tait vraiment impressionnante, \u00e7a d\u00e9bite beaucoup plus qu&#8217;un Llama 3 qui est de taille \u00e9quivalente. Apr\u00e8s, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plut\u00f4t bien loti mais j&#8217;ai trouv\u00e9 ce mod\u00e8le vraiment tr\u00e8s rapide. Je pense que je vais vraiment m&#8217;en servir pour des trucs comme de la qualification, du r\u00e9sum\u00e9, de l&#8217;analyse ce genre de choses.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/nvidia-nemotron-3-nano-modele-ia-open-source-2\/nvidia-nemotron-3-nano-modele-ia-open-source-2-2.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>A voir maintenant si en fran\u00e7ais il s&#8217;en sort bien sur les tournures de phrases. Quoi qu&#8217;il en soit pour du d\u00e9veloppement et des workflows agentiques, il n&#8217;y a pas photo, \u00e7a va \u00eatre mon nouveau mod\u00e8le par d\u00e9faut quand j&#8217;ai besoin de choses en local.<\/p>\n<p>La famille Nemotron 3 ne se limite pas au Nano \u00e9videmment. Y&#8217;a aussi le Super avec environ 100 milliards de param\u00e8tres pour les applications multi-agents, et l&#8217;Ultra avec 500 milliards pour les t\u00e2ches vraiment complexes. Ces deux-l\u00e0 arriveront au premier semestre 2026 donc faudra encore \u00eatre un peu patient. Nvidia a aussi sorti des biblioth\u00e8ques comme NeMo Gym pour l&#8217;entra\u00eenement et NeMo RL pour le fine-tuning.<\/p>\n<p>Jensen Huang, le patron de Nvidia, a aussi dit un truc int\u00e9ressant lors de l&#8217;annonce : &#8220;<em>L&#8217;innovation ouverte est le fondement du progr\u00e8s de l&#8217;IA.<\/em>&#8221; Venant d&#8217;une bo\u00eete qui a longtemps jou\u00e9 la carte proprio sur ses technos, je trouve que c&#8217;est un sacr\u00e9 virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou m\u00eame Cursor sont d\u00e9j\u00e0 en train d&#8217;int\u00e9grer Nemotron dans leurs produits.<\/p>\n<p>Ce qui est cool aussi, c&#8217;est que le mod\u00e8le supporte 24 langues officielles de l&#8217;UE plus une dizaine d&#8217;autres comme l&#8217;arabe, le chinois ou le japonais et c\u00f4t\u00e9 code, il g\u00e8re Python, C++, Java, Rust, Go, et m\u00eame du CUDA. Bref, c&#8217;est plut\u00f4t polyvalent.<\/p>\n<p>Voil\u00e0, donc si vous cherchez un mod\u00e8le open source s\u00e9rieux avec des donn\u00e9es d&#8217;entra\u00eenement transparentes et une vitesse de g\u00e9n\u00e9ration qui arrache, Nemotron 3 Nano m\u00e9rite clairement le coup d\u2019\u0153il !<\/p>\n<p>\n<a href=\"https:\/\/nvidianews.nvidia.com\/news\/nvidia-debuts-nemotron-3-family-of-open-models\">Source<\/a>\n<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Vous voulez faire tourner un mod\u00e8le d&#8217;IA en local sans avoir besoin d&#8217;un serveur de la NASA ? Eh bien Nvidia vient de l\u00e2cher une bombe avec Nemotron 3, une famille de mod\u00e8les open source plut\u00f4t impressionnant et surtout, ils ont publi\u00e9 leurs donn\u00e9es d&#8217;entra\u00eenement afin de jouer la transparence totale. Chapeau ! Le mod\u00e8le phare de cette nouvelle famille s&#8217;appelle Nemotron 3 Nano et c&#8217;est un mod\u00e8le de 30 milliards de param\u00e8tres, mais attention, il n&#8217;en active que 3,5 milliards \u00e0 la fois gr\u00e2ce \u00e0 une architecture hybride qui m\u00e9lange du Mamba-2 et du Mixture-of-Experts ( MoE ). \u00c7a permet de garder des performances de ouf tout en restant l\u00e9ger niveau ressources. Sous le capot, Nvidia a \u00e9galement mis le paquet puisque le mod\u00e8le a \u00e9t\u00e9 entra\u00een\u00e9 sur 25 trillions de tokens. J&#8217;ai bien dit &#8220;trillions&#8221;&#8230; Pour vous donner une id\u00e9e, les donn\u00e9es d&#8217;entra\u00eenement incluent du Common Crawl de 2013 \u00e0 2025, du code dans 43 langages diff\u00e9rents, des articles scientifiques, et une tonne de donn\u00e9es synth\u00e9tiques g\u00e9n\u00e9r\u00e9es par d&#8217;autres mod\u00e8les. Et tout \u00e7a, Nvidia l&#8217;a rendu public donc vous pouvez t\u00e9l\u00e9charger les datasets sur Hugging Face et v\u00e9rifier par vous-m\u00eame ce qui a servi \u00e0 entra\u00eener le bouzin. C\u00f4t\u00e9 performances, Nemotron 3 Nano se d\u00e9fend plut\u00f4t bien . Sur les benchmarks de raisonnement math\u00e9matique comme AIME25, il atteint 99,2% quand on lui donne acc\u00e8s \u00e0 des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les t\u00e2ches d&#8217;agent logiciel genre SWE-Bench, il monte \u00e0 38,8%. Pas mal pour un mod\u00e8le qu&#8217;on peut faire tourner sur du matos grand public. D&#8217;ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou m\u00eame la future RTX PRO 6000 et supporte jusqu&#8217;\u00e0 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un d\u00e9bit de tokens 4 fois sup\u00e9rieur \u00e0 la g\u00e9n\u00e9ration pr\u00e9c\u00e9dente, avec 60% de tokens de raisonnement en moins. C&#8217;est donc exactement ce que tout le monde demande \u00e0 saoir du token qui sort vite pour les workflows agentiques. Maintenant, pour l&#8217;utiliser, c&#8217;est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou m\u00eame llama.cpp. Y&#8217;a m\u00eame un mode &#8220;thinking&#8221; qu&#8217;on peut activer ou d\u00e9sactiver selon si on veut du raisonnement pouss\u00e9 ou des r\u00e9ponses rapides. Pour ma part, je l&#8217;ai test\u00e9 \u00e0 l&#8217;aide d&#8217;Ollama comme ceci : ollama run nemotron-3-nano:30b J&#8217;ai trouv\u00e9 que vitesse de g\u00e9n\u00e9ration \u00e9tait vraiment impressionnante, \u00e7a d\u00e9bite beaucoup plus qu&#8217;un Llama 3 qui est de taille \u00e9quivalente. Apr\u00e8s, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plut\u00f4t bien loti mais j&#8217;ai trouv\u00e9 ce mod\u00e8le vraiment tr\u00e8s rapide. Je pense que je vais vraiment m&#8217;en servir pour des trucs comme de la qualification, du r\u00e9sum\u00e9, de l&#8217;analyse ce genre de choses. A voir maintenant si en fran\u00e7ais il s&#8217;en sort bien sur les tournures de phrases. Quoi qu&#8217;il en soit pour du d\u00e9veloppement et des workflows agentiques, il n&#8217;y a pas photo, \u00e7a va \u00eatre mon nouveau mod\u00e8le par d\u00e9faut quand j&#8217;ai besoin de choses en local. La famille Nemotron 3 ne se limite pas au Nano \u00e9videmment. Y&#8217;a aussi le Super avec environ 100 milliards de param\u00e8tres pour les applications multi-agents, et l&#8217;Ultra avec 500 milliards pour les t\u00e2ches vraiment complexes. Ces deux-l\u00e0 arriveront au premier semestre 2026 donc faudra encore \u00eatre un peu patient. Nvidia a aussi sorti des biblioth\u00e8ques comme NeMo Gym pour l&#8217;entra\u00eenement et NeMo RL pour le fine-tuning. Jensen Huang, le patron de Nvidia, a aussi dit un truc int\u00e9ressant lors de l&#8217;annonce : &#8220;L&#8217;innovation ouverte est le fondement du progr\u00e8s de l&#8217;IA.&#8221; Venant d&#8217;une bo\u00eete qui a longtemps jou\u00e9 la carte proprio sur ses technos, je trouve que c&#8217;est un sacr\u00e9 virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou m\u00eame Cursor sont d\u00e9j\u00e0 en train d&#8217;int\u00e9grer Nemotron dans leurs produits. Ce qui est cool aussi, c&#8217;est que le mod\u00e8le supporte 24 langues officielles de l&#8217;UE plus une dizaine d&#8217;autres comme l&#8217;arabe, le chinois ou le japonais et c\u00f4t\u00e9 code, il g\u00e8re Python, C++, Java, Rust, Go, et m\u00eame du CUDA. Bref, c&#8217;est plut\u00f4t polyvalent. Voil\u00e0, donc si vous cherchez un mod\u00e8le open source s\u00e9rieux avec des donn\u00e9es d&#8217;entra\u00eenement transparentes et une vitesse de g\u00e9n\u00e9ration qui arrache, Nemotron 3 Nano m\u00e9rite clairement le coup d\u2019\u0153il ! Source<\/p>\n","protected":false},"author":1,"featured_media":1822,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1821","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1821","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1821"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1821\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1822"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1821"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}