﻿﻿{"id":2159,"date":"2026-01-24T17:04:49","date_gmt":"2026-01-24T16:04:49","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/edge-gallery-faites-tourner-des-ia-google-en-local-sur-votre-smartphone\/"},"modified":"2026-01-24T17:04:49","modified_gmt":"2026-01-24T16:04:49","slug":"edge-gallery-faites-tourner-des-ia-google-en-local-sur-votre-smartphone","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/edge-gallery-faites-tourner-des-ia-google-en-local-sur-votre-smartphone\/","title":{"rendered":"Edge Gallery &#8211; Faites tourner des IA Google en local sur votre smartphone"},"content":{"rendered":"<p><strong>Vous voulez faire tourner des mod\u00e8les d&#8217;IA directement sur votre t\u00e9l\u00e9phone, sans envoyer vos donn\u00e9es \u00e0 un serveur distant ?<\/strong><\/p>\n<p>\u00c7a tombe bien puisque Google a sorti<br \/>\n<a href=\"https:\/\/github.com\/google-ai-edge\/gallery\">Edge Gallery<\/a><br \/>\n, une application open source qui permet d&#8217;ex\u00e9cuter des LLM et des mod\u00e8les multimodaux en local sur Android et iOS. Et vu que c&#8217;est sous licence Apache 2.0, personne ne pourra vous la retirer&#8230; m\u00eame si Google d\u00e9cide un jour de passer \u00e0 autre chose ^^.<\/p>\n<p>Vous l&#8217;aurez compris, ce qui est cool avec cette app c&#8217;est que tout se passe sur l&#8217;appareil. Vos conversations avec l&#8217;IA, vos photos analys\u00e9es, vos notes audio transcrites&#8230; rien ne quitte votre smartphone. Et visiblement, \u00e7a pla\u00eet puisque l&#8217;app a d\u00e9pass\u00e9 les <strong>500 000 t\u00e9l\u00e9chargements<\/strong> en seulement deux mois apr\u00e8s sa sortie sur GitHub.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/edge-gallery-ia-locale-smartphone\/edge-gallery-ia-locale-smartphone-2.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Et comme je sais que parmi vous, y&#8217;a pas mal de paranos comme moi et de gens qui ne prennent pas leurs m\u00e9dicaments (pas comme moi), je pense que c&#8217;est le genre de solution qui va vous faire plaisir !<\/p>\n<h2>Ce qu&#8217;on peut faire avec<\/h2>\n<p>Edge Gallery embarque plusieurs fonctionnalit\u00e9s qui couvrent pas mal de cas d&#8217;usage du quotidien. Concr\u00e8tement, vous avez :<\/p>\n<p><strong>AI Chat<\/strong> pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, r\u00e9diger des mails ou juste poser des questions sans connexion internet.<\/p>\n<p><strong>Ask Image<\/strong> pour analyser vos photos. Vous prenez un truc en photo et vous demandez \u00e0 l&#8217;IA de vous expliquer ce que c&#8217;est. \u00c7a marche pour identifier des plantes, d\u00e9crypter une facture, ou comprendre un sch\u00e9ma technique.<\/p>\n<p><strong>Audio Scribe<\/strong> pour transcrire de l&#8217;audio en texte. Vous enregistrez une r\u00e9union, une interview, ou vos propres notes vocales, et hop, \u00e7a devient du texte exploitable. Et depuis la derni\u00e8re mise \u00e0 jour, vous pouvez m\u00eame <strong>traduire<\/strong> directement dans une autre langue.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/edge-gallery-ia-locale-smartphone\/edge-gallery-ia-locale-smartphone-3.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p><em>L&#8217;interface d&#8217;AI Edge Gallery sur Android<\/em><\/p>\n<p><strong>Prompt Lab<\/strong> pour les d\u00e9veloppeurs qui veulent tester leurs prompts et benchmarker les diff\u00e9rents mod\u00e8les disponibles. Y&#8217;a m\u00eame des m\u00e9triques en temps r\u00e9el (temps de premi\u00e8re r\u00e9ponse, vitesse de d\u00e9codage, latence) pour les geeks de l&#8217;optimisation.<\/p>\n<p><strong>Tiny Garden<\/strong>, c&#8217;est le petit bonus rigolo : un mini-jeu exp\u00e9rimental enti\u00e8rement offline o\u00f9 vous utilisez le langage naturel pour planter, arroser et r\u00e9colter des fleurs. Bon, c&#8217;est gadget, mais \u00e7a montre bien les possibilit\u00e9s du truc.<\/p>\n<p><strong>Mobile Actions<\/strong> pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un mod\u00e8le, puis le charger dans l&#8217;app pour contr\u00f4ler certaines fonctions de votre t\u00e9l\u00e9phone en offline. C&#8217;est encore exp\u00e9rimental, mais \u00e7a peut donner des id\u00e9es int\u00e9ressantes.<\/p>\n<h2>Les mod\u00e8les disponibles<\/h2>\n<p>L&#8217;app propose plusieurs mod\u00e8les selon vos besoins. On retrouve la famille<br \/>\n<a href=\"https:\/\/ai.google.dev\/gemma\">Gemma de Google<\/a><br \/>\n(Gemma 3 en 1B et 4B param\u00e8tres, Gemma 3n optimis\u00e9 pour les appareils plus modestes et qui g\u00e8re maintenant l&#8217;audio), mais aussi des mod\u00e8les tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus pouss\u00e9.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/edge-gallery-ia-locale-smartphone\/edge-gallery-ia-locale-smartphone-4.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p><em>Et les gardes fous sont facilement contournables&#8230;<\/em><\/p>\n<p>Il y a aussi des mod\u00e8les sp\u00e9cialis\u00e9s comme<br \/>\n<a href=\"https:\/\/korben.info\/google-translategemma.html\">TranslateGemma<\/a><br \/>\npour la traduction (55 langues support\u00e9es) et FunctionGemma pour l&#8217;appel de fonctions et tout ce petit monde tourne gr\u00e2ce \u00e0<br \/>\n<a href=\"https:\/\/ai.google.dev\/edge\/litert\">LiteRT<\/a><br \/>\n, le runtime l\u00e9ger de Google pour l&#8217;inf\u00e9rence on-device.<\/p>\n<p>D&#8217;ailleurs, la communaut\u00e9 Hugging Face propose d\u00e9j\u00e0 pas mal<br \/>\n<a href=\"https:\/\/huggingface.co\/litert-community\">de mod\u00e8les convertis au format LiteRT<\/a><br \/>\ndonc si les mod\u00e8les par d\u00e9faut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez m\u00eame charger vos propres mod\u00e8les au format <code>.litertlm<\/code>.<\/p>\n<h2>Installation sur Android<\/h2>\n<p>Pour Android, c&#8217;est simple, direction le<br \/>\n<a href=\"https:\/\/play.google.com\/store\/apps\/details?id=com.google.ai.edge.gallery\">Play Store<\/a><br \/>\net vous cherchez &#8220;AI Edge Gallery&#8221;. Vous pouvez aussi t\u00e9l\u00e9charger l&#8217;APK directement depuis les<br \/>\n<a href=\"https:\/\/github.com\/google-ai-edge\/gallery\/releases\">releases GitHub<\/a><br \/>\nsi vous pr\u00e9f\u00e9rez. Il vous faut <strong>Android 12 minimum<\/strong> et un appareil avec au moins <strong>4 Go de RAM<\/strong> (8 Go recommand\u00e9s pour les gros mod\u00e8les).<\/p>\n<p>Au premier lancement, l&#8217;app vous propose de t\u00e9l\u00e9charger les mod\u00e8les. Comptez entre 500 Mo et 4 Go par mod\u00e8le selon la taille. Une fois t\u00e9l\u00e9charg\u00e9s, ils sont stock\u00e9s localement et vous n&#8217;avez plus besoin de connexion pour les utiliser.<\/p>\n<h2>Et sur iOS \/ macOS ?<\/h2>\n<p>Pour iOS, l&#8217;app est disponible en b\u00eata via<br \/>\n<a href=\"https:\/\/testflight.apple.com\/join\/nAtSQKTF\">TestFlight<\/a><br \/>\n. Attention, c&#8217;est limit\u00e9 \u00e0 10 000 testeurs (premier arriv\u00e9, premier servi), et il faut un appareil avec <strong>minimum 6 Go de RAM<\/strong>. Moi c&#8217;est ce que j&#8217;utilise et comme c&#8217;est pas encore la version finale, il manque quelques trucs mais \u00e7a fonctionne. Google vise une sortie officielle sur l&#8217;App Store d\u00e9but 2026. J&#8217;ai h\u00e2te !<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/edge-gallery-ia-locale-smartphone\/edge-gallery-ia-locale-smartphone-5.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Pour macOS par contre&#8230; il n&#8217;y a pas de version native. L&#8217;app est pens\u00e9e pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c&#8217;est de passer par un \u00e9mulateur Android comme Android Studio (avec l&#8217;\u00e9mulateur int\u00e9gr\u00e9) ou BlueStacks. BlueStacks Air est d&#8217;ailleurs optimis\u00e9 pour les Mac Apple Silicon. C&#8217;est pas id\u00e9al mais \u00e7a d\u00e9panne.<\/p>\n<p>Cela dit, si vous \u00eates sur Mac et que vous voulez faire tourner des LLM en local, regardez plut\u00f4t du c\u00f4t\u00e9 d&#8217;Ollama ou de<br \/>\n<a href=\"https:\/\/korben.info\/lm-studio-local-llms-integration-code-usage.html\">LM Studio<\/a><br \/>\nqui sont nativement compatibles.<\/p>\n<h2>Pourquoi c&#8217;est int\u00e9ressant ce truc ?<\/h2>\n<p>L&#8217;int\u00e9r\u00eat principal, c&#8217;est \u00e9videmment la confidentialit\u00e9. Vos donn\u00e9es ne transitent jamais par des serveurs externes donc vous en gardez le contr\u00f4le total. C&#8217;est particuli\u00e8rement pertinent si vous bossez avec des documents sensibles ou si vous \u00eates simplement attach\u00e9 \u00e0 votre vie priv\u00e9e.<\/p>\n<p>L&#8217;autre avantage, c&#8217;est que \u00e7a fonctionne hors ligne. Dans le m\u00e9tro, en avion, en zone blanche&#8230; votre IA reste disponible. Pas de latence r\u00e9seau, pas de &#8220;serveur surcharg\u00e9, r\u00e9essayez plus tard&#8221;.<\/p>\n<p>Et puis le fait que ce soit open source, \u00e7a ouvre pas mal de portes car la communaut\u00e9 peut contribuer, ajouter des mod\u00e8les, corriger des bugs et m\u00eame si Google abandonne le projet (ce qui ne serait pas une premi\u00e8re), le code restera l\u00e0 et on pourra faire des forks ! (Pourquoi attendre en fait ??)<\/p>\n<p>Voil\u00e0, pour ceux qui veulent creuser,<br \/>\n<a href=\"https:\/\/github.com\/google-ai-edge\/gallery\">le wiki GitHub du projet<\/a><br \/>\ncontient pas mal de documentation sur l&#8217;ajout de mod\u00e8les personnalis\u00e9s et l&#8217;utilisation avanc\u00e9e de l&#8217;API LiteRT.<\/p>\n<p>\u00c9clatez-vous bien !<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vous voulez faire tourner des mod\u00e8les d&#8217;IA directement sur votre t\u00e9l\u00e9phone, sans envoyer vos donn\u00e9es \u00e0 un serveur distant ? \u00c7a tombe bien puisque Google a sorti Edge Gallery , une application open source qui permet d&#8217;ex\u00e9cuter des LLM et des mod\u00e8les multimodaux en local sur Android et iOS. Et vu que c&#8217;est sous licence Apache 2.0, personne ne pourra vous la retirer&#8230; m\u00eame si Google d\u00e9cide un jour de passer \u00e0 autre chose ^^. Vous l&#8217;aurez compris, ce qui est cool avec cette app c&#8217;est que tout se passe sur l&#8217;appareil. Vos conversations avec l&#8217;IA, vos photos analys\u00e9es, vos notes audio transcrites&#8230; rien ne quitte votre smartphone. Et visiblement, \u00e7a pla\u00eet puisque l&#8217;app a d\u00e9pass\u00e9 les 500 000 t\u00e9l\u00e9chargements en seulement deux mois apr\u00e8s sa sortie sur GitHub. Et comme je sais que parmi vous, y&#8217;a pas mal de paranos comme moi et de gens qui ne prennent pas leurs m\u00e9dicaments (pas comme moi), je pense que c&#8217;est le genre de solution qui va vous faire plaisir ! Ce qu&#8217;on peut faire avec Edge Gallery embarque plusieurs fonctionnalit\u00e9s qui couvrent pas mal de cas d&#8217;usage du quotidien. Concr\u00e8tement, vous avez : AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, r\u00e9diger des mails ou juste poser des questions sans connexion internet. Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez \u00e0 l&#8217;IA de vous expliquer ce que c&#8217;est. \u00c7a marche pour identifier des plantes, d\u00e9crypter une facture, ou comprendre un sch\u00e9ma technique. Audio Scribe pour transcrire de l&#8217;audio en texte. Vous enregistrez une r\u00e9union, une interview, ou vos propres notes vocales, et hop, \u00e7a devient du texte exploitable. Et depuis la derni\u00e8re mise \u00e0 jour, vous pouvez m\u00eame traduire directement dans une autre langue. L&#8217;interface d&#8217;AI Edge Gallery sur Android Prompt Lab pour les d\u00e9veloppeurs qui veulent tester leurs prompts et benchmarker les diff\u00e9rents mod\u00e8les disponibles. Y&#8217;a m\u00eame des m\u00e9triques en temps r\u00e9el (temps de premi\u00e8re r\u00e9ponse, vitesse de d\u00e9codage, latence) pour les geeks de l&#8217;optimisation. Tiny Garden, c&#8217;est le petit bonus rigolo : un mini-jeu exp\u00e9rimental enti\u00e8rement offline o\u00f9 vous utilisez le langage naturel pour planter, arroser et r\u00e9colter des fleurs. Bon, c&#8217;est gadget, mais \u00e7a montre bien les possibilit\u00e9s du truc. Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un mod\u00e8le, puis le charger dans l&#8217;app pour contr\u00f4ler certaines fonctions de votre t\u00e9l\u00e9phone en offline. C&#8217;est encore exp\u00e9rimental, mais \u00e7a peut donner des id\u00e9es int\u00e9ressantes. Les mod\u00e8les disponibles L&#8217;app propose plusieurs mod\u00e8les selon vos besoins. On retrouve la famille Gemma de Google (Gemma 3 en 1B et 4B param\u00e8tres, Gemma 3n optimis\u00e9 pour les appareils plus modestes et qui g\u00e8re maintenant l&#8217;audio), mais aussi des mod\u00e8les tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus pouss\u00e9. Et les gardes fous sont facilement contournables&#8230; Il y a aussi des mod\u00e8les sp\u00e9cialis\u00e9s comme TranslateGemma pour la traduction (55 langues support\u00e9es) et FunctionGemma pour l&#8217;appel de fonctions et tout ce petit monde tourne gr\u00e2ce \u00e0 LiteRT , le runtime l\u00e9ger de Google pour l&#8217;inf\u00e9rence on-device. D&#8217;ailleurs, la communaut\u00e9 Hugging Face propose d\u00e9j\u00e0 pas mal de mod\u00e8les convertis au format LiteRT donc si les mod\u00e8les par d\u00e9faut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez m\u00eame charger vos propres mod\u00e8les au format .litertlm. Installation sur Android Pour Android, c&#8217;est simple, direction le Play Store et vous cherchez &#8220;AI Edge Gallery&#8221;. Vous pouvez aussi t\u00e9l\u00e9charger l&#8217;APK directement depuis les releases GitHub si vous pr\u00e9f\u00e9rez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommand\u00e9s pour les gros mod\u00e8les). Au premier lancement, l&#8217;app vous propose de t\u00e9l\u00e9charger les mod\u00e8les. Comptez entre 500 Mo et 4 Go par mod\u00e8le selon la taille. Une fois t\u00e9l\u00e9charg\u00e9s, ils sont stock\u00e9s localement et vous n&#8217;avez plus besoin de connexion pour les utiliser. Et sur iOS \/ macOS ? Pour iOS, l&#8217;app est disponible en b\u00eata via TestFlight . Attention, c&#8217;est limit\u00e9 \u00e0 10 000 testeurs (premier arriv\u00e9, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c&#8217;est ce que j&#8217;utilise et comme c&#8217;est pas encore la version finale, il manque quelques trucs mais \u00e7a fonctionne. Google vise une sortie officielle sur l&#8217;App Store d\u00e9but 2026. J&#8217;ai h\u00e2te ! Pour macOS par contre&#8230; il n&#8217;y a pas de version native. L&#8217;app est pens\u00e9e pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c&#8217;est de passer par un \u00e9mulateur Android comme Android Studio (avec l&#8217;\u00e9mulateur int\u00e9gr\u00e9) ou BlueStacks. BlueStacks Air est d&#8217;ailleurs optimis\u00e9 pour les Mac Apple Silicon. C&#8217;est pas id\u00e9al mais \u00e7a d\u00e9panne. Cela dit, si vous \u00eates sur Mac et que vous voulez faire tourner des LLM en local, regardez plut\u00f4t du c\u00f4t\u00e9 d&#8217;Ollama ou de LM Studio qui sont nativement compatibles. Pourquoi c&#8217;est int\u00e9ressant ce truc ? L&#8217;int\u00e9r\u00eat principal, c&#8217;est \u00e9videmment la confidentialit\u00e9. Vos donn\u00e9es ne transitent jamais par des serveurs externes donc vous en gardez le contr\u00f4le total. C&#8217;est particuli\u00e8rement pertinent si vous bossez avec des documents sensibles ou si vous \u00eates simplement attach\u00e9 \u00e0 votre vie priv\u00e9e. L&#8217;autre avantage, c&#8217;est que \u00e7a fonctionne hors ligne. Dans le m\u00e9tro, en avion, en zone blanche&#8230; votre IA reste disponible. Pas de latence r\u00e9seau, pas de &#8220;serveur surcharg\u00e9, r\u00e9essayez plus tard&#8221;. Et puis le fait que ce soit open source, \u00e7a ouvre pas mal de portes car la communaut\u00e9 peut contribuer, ajouter des mod\u00e8les, corriger des bugs et m\u00eame si Google abandonne le projet (ce qui ne serait pas une premi\u00e8re), le code restera l\u00e0 et on pourra faire des forks ! (Pourquoi attendre en fait ??) Voil\u00e0, pour ceux qui veulent creuser, le wiki GitHub du projet contient pas mal de documentation sur l&#8217;ajout de mod\u00e8les personnalis\u00e9s et l&#8217;utilisation avanc\u00e9e de l&#8217;API LiteRT. \u00c9clatez-vous bien !<\/p>\n","protected":false},"author":1,"featured_media":2160,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-2159","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2159","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=2159"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2159\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/2160"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=2159"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}