﻿﻿{"id":1571,"date":"2025-11-11T07:23:47","date_gmt":"2025-11-11T06:23:47","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/reins-un-ollama-sur-mobile-sans-faire-tourner-ollama-sur-mobile\/"},"modified":"2025-11-11T07:23:47","modified_gmt":"2025-11-11T06:23:47","slug":"reins-un-ollama-sur-mobile-sans-faire-tourner-ollama-sur-mobile","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/reins-un-ollama-sur-mobile-sans-faire-tourner-ollama-sur-mobile\/","title":{"rendered":"Reins &#8211; Un Ollama sur mobile sans faire tourner Ollama sur mobile"},"content":{"rendered":"<p>Vous voulez utiliser Ollama sur votre iPhone ou Android pour lancer vos petits LLM en local ? Ce serait super cool non ? Bah j\u2019ai une mauvaise nouvelle pour vous\u2026 votre smartphone n\u2019a pas assez de m\u00e9moire vive pour faire \u00e7a\u2026<\/p>\n<p>Le probl\u00e8me est simple\u2026 les LLM bouffent un max de RAM. Par exemple, un LLaMA 7B, c\u2019est dans les 12 GB de RAM. Et m\u00eame quantifi\u00e9 en int4 pour gagner de la place, vous tombez \u00e0 environ 3,5 GB. Et \u00e7a, c\u2019est juste le mod\u00e8le hein\u2026 Faut y ajouter le contexte, l\u2019OS, les autres apps, et votre smartphone \u00e0 8 GB de RAM commence \u00e0 suer de la raie.<\/p>\n<p>Google a bien s\u00fbr sorti<br \/>\n<a href=\"https:\/\/developer.android.com\/ai\/gemini-nano\">Gemini Nano<\/a><br \/>\npour Android, leur petit LLM optimis\u00e9 pour mobile mais c\u2019est compatible avec une poign\u00e9e de smartphone car il faut un NPU d\u00e9di\u00e9, assez de RAM, et une architecture tr\u00e8s r\u00e9cente. Les autres, vous irez vous faire voir\u2026<\/p>\n<p>Du coup, une solution \u201cpragmatique\u201d, c\u2019est de laisser votre Mac, votre PC, ou un petit serveur faire tourner Ollama chez vous, et d\u2019utiliser votre smartphone comme simple client pour vous y connecter \u00e0 distance. Vous gardez vos donn\u00e9es locales, vous profitez de toute la puissance des mod\u00e8les lourds, et votre iPhone ne chauffe pas comme un radiateur.<\/p>\n<p>Et pour \u00e7a, il existe tout un tas d\u2019apps mobiles qui font office de client Ollama. Des apps comme<br \/>\n<a href=\"https:\/\/github.com\/gluonfield\/enchanted\">Enchanted<\/a><br \/>\nsur iOS,<br \/>\n<a href=\"https:\/\/github.com\/bipark\/my_ollama_app\">My Ollama<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/github.com\/nathanborror\/Heat\">Heat<\/a><br \/>\n, et m\u00eame les solutions cross-platform comme<br \/>\n<a href=\"https:\/\/github.com\/hengkysteen\/ollamb\">Ollamb<\/a><br \/>\ncod\u00e9 en Flutter. Et aujourd\u2019hui, je vous parle de<br \/>\n<a href=\"https:\/\/github.com\/ibrahimcetin\/reins\">Reins<\/a><br \/>\n, une app d\u00e9velopp\u00e9e par Ibrahim Cetin qui se d\u00e9marque par des fonctionnalit\u00e9s que j\u2019ai trouv\u00e9es bien pens\u00e9es.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/reins-ollama-mobile-impossible\/reins-ollama-mobile-impossible-2.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Les fonctionnalit\u00e9s sont con\u00e7ues pour des cas d\u2019usage du monde r\u00e9el. Vous pouvez ainsi d\u00e9finir un prompt system diff\u00e9rent par conversation ce qui est pratique si vous avez un chat pour le code, un pour l\u2019\u00e9criture, un pour la traduction et j\u2019en passe\u2026 Vous \u00e9ditez et r\u00e9g\u00e9n\u00e9rez les prompts \u00e0 la vol\u00e9e et vous pouvez changer de mod\u00e8le en cours de conversation sans tout perdre.<\/p>\n<p>Reins supporte \u00e9galement l\u2019envoi d\u2019images, ce qui est utile si vous utilisez un mod\u00e8le vision comme LLaVA. Vous pouvez aussi tweaker les param\u00e8tres avanc\u00e9s tels que la temp\u00e9rature, seed, taille du contexte, tokens max\u2026etc. Et le streaming fonctionne en temps r\u00e9el, comme \u00e7a pas besoin d\u2019attendre une r\u00e9ponse compl\u00e8te avant de la voir.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/reins-ollama-mobile-impossible\/reins-ollama-mobile-impossible-3.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Bien s\u00fbr, la question de la s\u00e9curit\u00e9 se pose. Il faut quand m\u00eame exposer votre serveur Ollama sur Internet pour y acc\u00e9der de l\u2019ext\u00e9rieur donc pensez HTTPS obligatoire, tunnel ngrok temporaire si vous testez, VPN Tailscale ou Wireguard si vous voulez du permanent et s\u00e9curis\u00e9. Bref, les pr\u00e9cautions classiques.<\/p>\n<p>Vous pouvez t\u00e9l\u00e9charger Reins sur l\u2019App Store,<br \/>\n<a href=\"https:\/\/github.com\/ibrahimcetin\/reins\/releases\">en APK ou r\u00e9cup\u00e9rer les builds macOS\/Linux sur GitHub<\/a><br \/>\n.<\/p>\n<p>Merci \u00e0 Lorenper pour l\u2019info.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vous voulez utiliser Ollama sur votre iPhone ou Android pour lancer vos petits LLM en local ? Ce serait super cool non ? Bah j\u2019ai une mauvaise nouvelle pour vous\u2026 votre smartphone n\u2019a pas assez de m\u00e9moire vive pour faire \u00e7a\u2026 Le probl\u00e8me est simple\u2026 les LLM bouffent un max de RAM. Par exemple, un LLaMA 7B, c\u2019est dans les 12 GB de RAM. Et m\u00eame quantifi\u00e9 en int4 pour gagner de la place, vous tombez \u00e0 environ 3,5 GB. Et \u00e7a, c\u2019est juste le mod\u00e8le hein\u2026 Faut y ajouter le contexte, l\u2019OS, les autres apps, et votre smartphone \u00e0 8 GB de RAM commence \u00e0 suer de la raie. Google a bien s\u00fbr sorti Gemini Nano pour Android, leur petit LLM optimis\u00e9 pour mobile mais c\u2019est compatible avec une poign\u00e9e de smartphone car il faut un NPU d\u00e9di\u00e9, assez de RAM, et une architecture tr\u00e8s r\u00e9cente. Les autres, vous irez vous faire voir\u2026 Du coup, une solution \u201cpragmatique\u201d, c\u2019est de laisser votre Mac, votre PC, ou un petit serveur faire tourner Ollama chez vous, et d\u2019utiliser votre smartphone comme simple client pour vous y connecter \u00e0 distance. Vous gardez vos donn\u00e9es locales, vous profitez de toute la puissance des mod\u00e8les lourds, et votre iPhone ne chauffe pas comme un radiateur. Et pour \u00e7a, il existe tout un tas d\u2019apps mobiles qui font office de client Ollama. Des apps comme Enchanted sur iOS, My Ollama , Heat , et m\u00eame les solutions cross-platform comme Ollamb cod\u00e9 en Flutter. Et aujourd\u2019hui, je vous parle de Reins , une app d\u00e9velopp\u00e9e par Ibrahim Cetin qui se d\u00e9marque par des fonctionnalit\u00e9s que j\u2019ai trouv\u00e9es bien pens\u00e9es. Les fonctionnalit\u00e9s sont con\u00e7ues pour des cas d\u2019usage du monde r\u00e9el. Vous pouvez ainsi d\u00e9finir un prompt system diff\u00e9rent par conversation ce qui est pratique si vous avez un chat pour le code, un pour l\u2019\u00e9criture, un pour la traduction et j\u2019en passe\u2026 Vous \u00e9ditez et r\u00e9g\u00e9n\u00e9rez les prompts \u00e0 la vol\u00e9e et vous pouvez changer de mod\u00e8le en cours de conversation sans tout perdre. Reins supporte \u00e9galement l\u2019envoi d\u2019images, ce qui est utile si vous utilisez un mod\u00e8le vision comme LLaVA. Vous pouvez aussi tweaker les param\u00e8tres avanc\u00e9s tels que la temp\u00e9rature, seed, taille du contexte, tokens max\u2026etc. Et le streaming fonctionne en temps r\u00e9el, comme \u00e7a pas besoin d\u2019attendre une r\u00e9ponse compl\u00e8te avant de la voir. Bien s\u00fbr, la question de la s\u00e9curit\u00e9 se pose. Il faut quand m\u00eame exposer votre serveur Ollama sur Internet pour y acc\u00e9der de l\u2019ext\u00e9rieur donc pensez HTTPS obligatoire, tunnel ngrok temporaire si vous testez, VPN Tailscale ou Wireguard si vous voulez du permanent et s\u00e9curis\u00e9. Bref, les pr\u00e9cautions classiques. Vous pouvez t\u00e9l\u00e9charger Reins sur l\u2019App Store, en APK ou r\u00e9cup\u00e9rer les builds macOS\/Linux sur GitHub . Merci \u00e0 Lorenper pour l\u2019info.<\/p>\n","protected":false},"author":1,"featured_media":1572,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1571","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1571","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1571"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1571\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1572"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1571"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}