﻿﻿{"id":1531,"date":"2025-11-06T10:00:00","date_gmt":"2025-11-06T09:00:00","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/eurollm-le-llm-europeen-qui-tourne-sur-votre-laptop\/"},"modified":"2025-11-06T10:00:00","modified_gmt":"2025-11-06T09:00:00","slug":"eurollm-le-llm-europeen-qui-tourne-sur-votre-laptop","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/eurollm-le-llm-europeen-qui-tourne-sur-votre-laptop\/","title":{"rendered":"EuroLLM &#8211; Le LLM europ\u00e9en qui tourne sur votre laptop"},"content":{"rendered":"<p>Faire tourner un mod\u00e8le de langage europ\u00e9en sur votre machine sans avoir besoin d\u2019un serveur surpuissant branch\u00e9 sur une centrale nucl\u00e9aire, c\u2019est maintenant possible, les amis ! H\u00e9 oui,<br \/>\n<a href=\"https:\/\/eurollm.io\/\">EuroLLM<\/a><br \/>\nvient de prouver qu\u2019on pouvait faire tourner un mod\u00e8le \u00e0 9 milliards de param\u00e8tres dans un peu moins de 6 GB de RAM sur un simple laptop.<\/p>\n<p>Une seule commande<br \/>\n<a href=\"https:\/\/ollama.com\/\">Ollama<\/a><br \/>\n, et c\u2019est parti mon kiki !!!<\/p>\n<p>Bien s\u00fbr, il est encore loin des gros mod\u00e8les proprio comme GPT-5 mais c\u2019est le enfin le premier LLM europ\u00e9en que VOUS pouvez faire tourner en local. C\u2019est respectueux de votre vie priv\u00e9e, des droits d\u2019auteurs et c\u2019est gratuit !<\/p>\n<h3>Un projet 100% europ\u00e9en<\/h3>\n<p>EuroLLM, c\u2019est en r\u00e9alit\u00e9 une coalition de labos europ\u00e9ens :<br \/>\n<a href=\"https:\/\/tecnico.ulisboa.pt\/\">Instituto Superior T\u00e9cnico<\/a><br \/>\n(Lisbonne),<br \/>\n<a href=\"https:\/\/www.ed.ac.uk\/\">University of Edinburgh<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/www.universite-paris-saclay.fr\/\">Universit\u00e9 Paris-Saclay<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/unbabel.com\/\">Unbabel<\/a><br \/>\n, et d\u2019autres et c\u2019est financ\u00e9 par<br \/>\n<a href=\"https:\/\/research-and-innovation.ec.europa.eu\/funding\/funding-opportunities\/funding-programmes-and-open-calls\/horizon-europe_en\">Horizon Europe<\/a><br \/>\net l\u2019<br \/>\n<a href=\"https:\/\/eurohpc-ju.europa.eu\/\">EuroHPC<\/a><br \/>\n, et ce mod\u00e8le supporte les 24 langues officielles de l\u2019UE, plus 11 langues suppl\u00e9mentaires (arabe, chinois, hindi, japonais, cor\u00e9en, russe, turc\u2026).<\/p>\n<p>\n<a href=\"https:\/\/huggingface.co\/utter-project\/EuroLLM-9B\">EuroLLM-9B<\/a><br \/>\n, le mod\u00e8le de base, a \u00e9t\u00e9 entra\u00een\u00e9 sur 4 trillions de tokens avec le supercalculateur<br \/>\n<a href=\"https:\/\/www.bsc.es\/marenostrum\/marenostrum-5\">MareNostrum 5<\/a><br \/>\n\u00e0 Barcelone (400 GPUs Nvidia H100) et l\u2019architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/eurollm-llm-europeen-local-ollama-laptop\/eurollm-llm-europeen-local-ollama-laptop-2.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>Mais il existe d\u2019autres versions comme EuroLLM-1.7B pour smartphones et bient\u00f4t EuroLLM-22B pour plus de puissance, ainsi qu\u2019une version vision-language (EuroVLM-9B) et un mod\u00e8le Mixture-of-Experts (EuroMoE-2.6B).<\/p>\n<p>Et surtout c\u2019est sous <strong>licence Apache 2.0<\/strong>. Donc l\u2019usage commercial est autoris\u00e9, vous pouvez le fine-tuner sur vos donn\u00e9es, et les modifications sont libres, sans redevance \u00e0 payer. Ce n\u2019est pas la premi\u00e8re fois qu\u2019il y a des LLM europ\u00e9ens mais ils \u00e9taient soit sous licence trop restrictives ou un peu trop lourd pour \u00eatre utilis\u00e9 localement par les gens normaux comme vous et moi.<\/p>\n<h3>Maintenant comment l\u2019installer ?<\/h3>\n<p>La m\u00e9thode la plus simple, c\u2019est via<br \/>\n<a href=\"https:\/\/ollama.com\/\">Ollama<\/a><br \/>\n:<\/p>\n<div class=\"highlight\">\n<pre class=\"chroma\"><code class=\"language-fallback\" data-lang=\"fallback\"><span class=\"line\"><span class=\"cl\">ollama run hf.co\/bartowski\/EuroLLM-9B-Instruct-GGUF\n<\/span><\/span><\/code><\/pre>\n<p>Ollama t\u00e9l\u00e9charge le mod\u00e8le en version GGUF (format optimis\u00e9 CPU\/GPU), et vous pouvez commencer \u00e0 discuter. Il existe aussi une version pr\u00e9-packag\u00e9e <code>alibayram\/erurollm-9b-instruct<\/code> (attention, <em><br \/>\n<a href=\"https:\/\/ollama.com\/alibayram\/erurollm-9b-instruct\">erurollm<\/a><br \/>\n<\/em> avec un \u201cu\u201d), quantized en Q4_K_M pour r\u00e9duire la taille \u00e0 5,6 GB.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/eurollm-llm-europeen-local-ollama-laptop\/eurollm-llm-europeen-local-ollama-laptop-3.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>Si vous pr\u00e9f\u00e9rez Python et Hugging Face Transformers :<\/p>\n<div class=\"highlight\">\n<pre class=\"chroma\"><code class=\"language-fallback\" data-lang=\"fallback\"><span class=\"line\"><span class=\"cl\">from transformers import AutoTokenizer, AutoModelForCausalLM\n<\/span><\/span><span class=\"line\"><span class=\"cl\">\n<\/span><\/span><span class=\"line\"><span class=\"cl\">model_name = \"utter-project\/EuroLLM-9B-Instruct\"\n<\/span><\/span><span class=\"line\"><span class=\"cl\">tokenizer = AutoTokenizer.from_pretrained(model_name)\n<\/span><\/span><span class=\"line\"><span class=\"cl\">model = AutoModelForCausalLM.from_pretrained(model_name)\n<\/span><\/span><span class=\"line\"><span class=\"cl\">\n<\/span><\/span><span class=\"line\"><span class=\"cl\">inputs = tokenizer(\"Explique-moi ce qu'est un LLM en fran\u00e7ais simple\", return_tensors=\"pt\")\n<\/span><\/span><span class=\"line\"><span class=\"cl\">outputs = model.generate(**inputs, max_length=200)\n<\/span><\/span><span class=\"line\"><span class=\"cl\">print(tokenizer.decode(outputs[0]))\n<\/span><\/span><\/code><\/pre>\n<p>Une fois t\u00e9l\u00e9charg\u00e9, le mod\u00e8le reste en cache local. Vous pouvez alors l\u2019utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne m\u00eame sur des Raspberry Pi :<\/p>\n<div class=\"highlight\">\n<pre class=\"chroma\"><code class=\"language-fallback\" data-lang=\"fallback\"><span class=\"line\"><span class=\"cl\">ollama run cas\/eurollm-1.7b-instruct-q8\n<\/span><\/span><\/code><\/pre>\n<h3>Alors pourquoi c\u2019est important ?<\/h3>\n<p>EuroLLM ouvre l\u2019IA europ\u00e9enne \u00e0 des cas d\u2019usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d\u2019OpenAI\u2026 ce serait tout livrer aux am\u00e9ricains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le mod\u00e8le sur son ordi portable. M\u00eame un chercheur qui manipule des donn\u00e9es m\u00e9dicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/eurollm-llm-europeen-local-ollama-laptop\/eurollm-llm-europeen-local-ollama-laptop-4.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>C\u2019est cool quand m\u00eame que l\u2019Europe nous file un mod\u00e8le gratuit qu\u2019on peut installer chez soi et utiliser sans limite. Apr\u00e8s c\u2019est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d\u2019utilisation r\u00e9els tels que des r\u00e9sum\u00e9s, de la traduction, des questions-r\u00e9ponses simples, de la g\u00e9n\u00e9ration de code basique.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/eurollm-llm-europeen-local-ollama-laptop\/eurollm-llm-europeen-local-ollama-laptop-5.png\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>La roadmap pr\u00e9voit d\u2019ajouter de la vision et de la voix aux mod\u00e8les. D\u2019ailleurs, comme je vous le disais, EuroVLM-9B est d\u00e9j\u00e0 en preview sur<br \/>\n<a href=\"https:\/\/huggingface.co\/utter-project\">Hugging Face<\/a><br \/>\n, ce qui ouvre la voie \u00e0 de l\u2019OCR multilingue, de l\u2019analyse de documents visuels, ou encore \u00e0 la cr\u00e9ation d\u2019assistants vocaux dans n\u2019importe quelle langue\u2026<\/p>\n<p>Voil\u00e0 j\u2019ai trouv\u00e9 \u00e7a cool \u00e0 tester et un grand merci \u00e0<br \/>\n<a href=\"https:\/\/github.com\/letsar\">Letsar<\/a><br \/>\npour le partage !<\/p>\n<\/div>\n<\/div>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Faire tourner un mod\u00e8le de langage europ\u00e9en sur votre machine sans avoir besoin d\u2019un serveur surpuissant branch\u00e9 sur une centrale nucl\u00e9aire, c\u2019est maintenant possible, les amis ! H\u00e9 oui, EuroLLM vient de prouver qu\u2019on pouvait faire tourner un mod\u00e8le \u00e0 9 milliards de param\u00e8tres dans un peu moins de 6 GB de RAM sur un simple laptop. Une seule commande Ollama , et c\u2019est parti mon kiki !!! Bien s\u00fbr, il est encore loin des gros mod\u00e8les proprio comme GPT-5 mais c\u2019est le enfin le premier LLM europ\u00e9en que VOUS pouvez faire tourner en local. C\u2019est respectueux de votre vie priv\u00e9e, des droits d\u2019auteurs et c\u2019est gratuit ! Un projet 100% europ\u00e9en EuroLLM, c\u2019est en r\u00e9alit\u00e9 une coalition de labos europ\u00e9ens : Instituto Superior T\u00e9cnico (Lisbonne), University of Edinburgh , Universit\u00e9 Paris-Saclay , Unbabel , et d\u2019autres et c\u2019est financ\u00e9 par Horizon Europe et l\u2019 EuroHPC , et ce mod\u00e8le supporte les 24 langues officielles de l\u2019UE, plus 11 langues suppl\u00e9mentaires (arabe, chinois, hindi, japonais, cor\u00e9en, russe, turc\u2026). EuroLLM-9B , le mod\u00e8le de base, a \u00e9t\u00e9 entra\u00een\u00e9 sur 4 trillions de tokens avec le supercalculateur MareNostrum 5 \u00e0 Barcelone (400 GPUs Nvidia H100) et l\u2019architecture utilise du Grouped Query Attention, RoPE, SwiGLU et RMSNorm, comme tout LLM moderne qui se respecte. Mais il existe d\u2019autres versions comme EuroLLM-1.7B pour smartphones et bient\u00f4t EuroLLM-22B pour plus de puissance, ainsi qu\u2019une version vision-language (EuroVLM-9B) et un mod\u00e8le Mixture-of-Experts (EuroMoE-2.6B). Et surtout c\u2019est sous licence Apache 2.0. Donc l\u2019usage commercial est autoris\u00e9, vous pouvez le fine-tuner sur vos donn\u00e9es, et les modifications sont libres, sans redevance \u00e0 payer. Ce n\u2019est pas la premi\u00e8re fois qu\u2019il y a des LLM europ\u00e9ens mais ils \u00e9taient soit sous licence trop restrictives ou un peu trop lourd pour \u00eatre utilis\u00e9 localement par les gens normaux comme vous et moi. Maintenant comment l\u2019installer ? La m\u00e9thode la plus simple, c\u2019est via Ollama : ollama run hf.co\/bartowski\/EuroLLM-9B-Instruct-GGUF Ollama t\u00e9l\u00e9charge le mod\u00e8le en version GGUF (format optimis\u00e9 CPU\/GPU), et vous pouvez commencer \u00e0 discuter. Il existe aussi une version pr\u00e9-packag\u00e9e alibayram\/erurollm-9b-instruct (attention, erurollm avec un \u201cu\u201d), quantized en Q4_K_M pour r\u00e9duire la taille \u00e0 5,6 GB. Si vous pr\u00e9f\u00e9rez Python et Hugging Face Transformers : from transformers import AutoTokenizer, AutoModelForCausalLM model_name = &#8220;utter-project\/EuroLLM-9B-Instruct&#8221; tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) inputs = tokenizer(&#8220;Explique-moi ce qu&#8217;est un LLM en fran\u00e7ais simple&#8221;, return_tensors=&#8221;pt&#8221;) outputs = model.generate(**inputs, max_length=200) print(tokenizer.decode(outputs[0])) Une fois t\u00e9l\u00e9charg\u00e9, le mod\u00e8le reste en cache local. Vous pouvez alors l\u2019utiliser offline, sans connexion internet. Et pour les machines avec moins de RAM, la version 1.7B tourne m\u00eame sur des Raspberry Pi : ollama run cas\/eurollm-1.7b-instruct-q8 Alors pourquoi c\u2019est important ? EuroLLM ouvre l\u2019IA europ\u00e9enne \u00e0 des cas d\u2019usage impossibles avec des API cloud. Par exemple une administration publique ne peut pas envoyer ses documents dans le cloud d\u2019OpenAI\u2026 ce serait tout livrer aux am\u00e9ricains. Elle peut donc fine-tuner EuroLLM localement. Un journaliste en zone sensible sans connexion fiable peut aussi embarquer le mod\u00e8le sur son ordi portable. M\u00eame un chercheur qui manipule des donn\u00e9es m\u00e9dicales confidentielles peut le faire en toute confiance avec EuroLLM puisque tout reste sur sa machine. C\u2019est cool quand m\u00eame que l\u2019Europe nous file un mod\u00e8le gratuit qu\u2019on peut installer chez soi et utiliser sans limite. Apr\u00e8s c\u2019est vrai que EuroLLM ne bat pas GPT-4 (pas encore) mais il est suffisamment bon pour 80% des cas d\u2019utilisation r\u00e9els tels que des r\u00e9sum\u00e9s, de la traduction, des questions-r\u00e9ponses simples, de la g\u00e9n\u00e9ration de code basique. La roadmap pr\u00e9voit d\u2019ajouter de la vision et de la voix aux mod\u00e8les. D\u2019ailleurs, comme je vous le disais, EuroVLM-9B est d\u00e9j\u00e0 en preview sur Hugging Face , ce qui ouvre la voie \u00e0 de l\u2019OCR multilingue, de l\u2019analyse de documents visuels, ou encore \u00e0 la cr\u00e9ation d\u2019assistants vocaux dans n\u2019importe quelle langue\u2026 Voil\u00e0 j\u2019ai trouv\u00e9 \u00e7a cool \u00e0 tester et un grand merci \u00e0 Letsar pour le partage !<\/p>\n","protected":false},"author":1,"featured_media":1532,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1531","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1531","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1531"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1531\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1532"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1531"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}