﻿﻿{"id":1543,"date":"2025-11-07T10:00:00","date_gmt":"2025-11-07T09:00:00","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/mocollamma-ollama-gerable-depuis-iphone-ipad-et-vision-pro\/"},"modified":"2025-11-07T10:00:00","modified_gmt":"2025-11-07T09:00:00","slug":"mocollamma-ollama-gerable-depuis-iphone-ipad-et-vision-pro","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/mocollamma-ollama-gerable-depuis-iphone-ipad-et-vision-pro\/","title":{"rendered":"MocoLlamma &#8211; Ollama g\u00e9rable depuis iPhone, iPad et Vision Pro"},"content":{"rendered":"<p>Vous avez install\u00e9<br \/>\n<a href=\"https:\/\/ollama.com\/\">Ollama<\/a><br \/>\nsur votre Mac et vous \u00eates le plus joyeux de tous les mammif\u00e8res car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, pos\u00e9 dans votre canap\u00e9 avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau mod\u00e8le. Et l\u00e0, vous r\u00e9alisez qu\u2019il va falloir sortir le MacBook, ouvrir un terminal, taper <code>ollama pull mistral<\/code>, attendre et attendre\u2026 Grosse flemme non ?<\/p>\n<p>H\u00e9 oui, Ollama reste un outil en ligne de commande. C\u2019est g\u00e9nial pour les devs, mais gal\u00e8re pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c\u2019est impossible de g\u00e9rer vos mod\u00e8les sans SSH et sans Terminal.<\/p>\n<p>Heureusement,<br \/>\n<a href=\"https:\/\/mocolamma.taikun.design\/\">MocoLlamma<\/a><br \/>\nvient combler ce foss\u00e9. C\u2019est une <strong>app de gestion Ollama pour macOS, iOS, iPadOS<\/strong>, et m\u00eame <strong>visionOS<\/strong> si vous avez ce truc. C\u2019est donc une vraie app native avec interface graphique, d\u00e9velopp\u00e9e en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et o\u00f9 vous g\u00e9rez vos mod\u00e8les, et vous testez vos LLM via un chat basique.<\/p>\n<p>\n<img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/mocolamma-ollama-gestion-iphone-ia-locale\/mocolamma-ollama-gestion-iphone-ia-locale-1.webp\" alt=\"\" loading=\"lazy\">\n<\/p>\n<p>L\u2019app s\u2019organise autour de trois onglets. Le premier, <strong>Server<\/strong>, vous permet d\u2019ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, g\u00e9rer les connexions, bref, tout ce qu\u2019il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.<\/p>\n<p>Le second onglet, <strong>Model<\/strong>, affiche tous les mod\u00e8les disponibles sur le serveur s\u00e9lectionn\u00e9. Vous voyez ainsi les infos de chaque mod\u00e8le, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme \u00e7a, plus besoin de taper <code>ollama list<\/code> pour savoir ce qui tourne. Tout est l\u00e0, visuellement, avec la possibilit\u00e9 de g\u00e9rer vos mod\u00e8les d\u2019un tapotage bien senti.<\/p>\n<p>Le troisi\u00e8me onglet, <strong>Chat<\/strong>, permet de tester rapidement un mod\u00e8le. C\u2019est volontairement basique et l\u2019id\u00e9e n\u2019est pas de remplacer ChatGPT ou Open WebUI, mais juste de v\u00e9rifier qu\u2019un mod\u00e8le r\u00e9pond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s\u2019il fonctionne avant de l\u2019int\u00e9grer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.<\/p>\n<p>Il existe bien s\u00fbr des tonnes d\u2019alternatives de GUI pour Ollama comme<br \/>\n<a href=\"https:\/\/korben.info\/open-webui-nouvelle-interface-graphique-ollama.html\">Open WebUI<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/korben.info\/lm-studio-local-llms-integration-code-usage.html\">LM Studio<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/korben.info\/jan-open-source-chatgpt-alternative-hors-ligne-personnalisable.html\">Jan<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/github.com\/nomic-ai\/gpt4all\">GPT4All<\/a><br \/>\n\u2026 Mais aucune ne supporte nativement visionOS ou les iPad \/ iPhone. Alors que MocoLlamma, si.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/mocolamma-ollama-gestion-iphone-ia-locale\/mocolamma-ollama-gestion-iphone-ia-locale-2.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>C\u2019est actuellement la seule app qui vous permet de g\u00e9rer vos LLM locaux depuis ces appareils Apple\u2026 C\u2019est assez niche c\u2019est vrai mais \u00e7a peut rendre service.<\/p>\n<p>Le nom \u201cMocoLlamma\u201d est ce qu\u2019on appelle un mot valise de \u201cModel\u201d, \u201cControl\u201d, \u201cOllama\u201d, et \u201cManage\u201d. C\u2019est moche de ouf, c\u2019est pas super \u00e0 retenir, mais au moins \u00e7a d\u00e9crit exactement ce que fait l\u2019app.<\/p>\n<p>Y\u2019a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c\u2019est sous license MIT) et la version payante, \u00e0 1,99 dollars sur l\u2019App Store, supporte macOS, iOS, iPadOS, et visionOS. La diff\u00e9rence principale pour l\u2019app macOS c\u2019est surtout les mises \u00e0 jour automatiques. Vous payez 2 balles pour le confort.<\/p>\n<p>Et l\u00e0, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donn\u00e9e utilisateur. Bref, cette appli vient combler le trou qui se trouve entre \u201c<em>j\u2019ai install\u00e9 Ollama<\/em>\u201d et \u201c<em>je peux g\u00e9rer mes mod\u00e8les depuis mon iPhone<\/em>\u201d. Si vous avez ce besoin, c\u2019est donc \u00e0 consid\u00e9rer.<\/p>\n<p>Merci \u00e0<br \/>\n<a href=\"https:\/\/github.com\/lorenper\">Lorenper<\/a><br \/>\npour la d\u00e9couverte.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vous avez install\u00e9 Ollama sur votre Mac et vous \u00eates le plus joyeux de tous les mammif\u00e8res car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, pos\u00e9 dans votre canap\u00e9 avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau mod\u00e8le. Et l\u00e0, vous r\u00e9alisez qu\u2019il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre\u2026 Grosse flemme non ? H\u00e9 oui, Ollama reste un outil en ligne de commande. C\u2019est g\u00e9nial pour les devs, mais gal\u00e8re pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c\u2019est impossible de g\u00e9rer vos mod\u00e8les sans SSH et sans Terminal. Heureusement, MocoLlamma vient combler ce foss\u00e9. C\u2019est une app de gestion Ollama pour macOS, iOS, iPadOS, et m\u00eame visionOS si vous avez ce truc. C\u2019est donc une vraie app native avec interface graphique, d\u00e9velopp\u00e9e en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et o\u00f9 vous g\u00e9rez vos mod\u00e8les, et vous testez vos LLM via un chat basique. L\u2019app s\u2019organise autour de trois onglets. Le premier, Server, vous permet d\u2019ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, g\u00e9rer les connexions, bref, tout ce qu\u2019il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une. Le second onglet, Model, affiche tous les mod\u00e8les disponibles sur le serveur s\u00e9lectionn\u00e9. Vous voyez ainsi les infos de chaque mod\u00e8le, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme \u00e7a, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est l\u00e0, visuellement, avec la possibilit\u00e9 de g\u00e9rer vos mod\u00e8les d\u2019un tapotage bien senti. Le troisi\u00e8me onglet, Chat, permet de tester rapidement un mod\u00e8le. C\u2019est volontairement basique et l\u2019id\u00e9e n\u2019est pas de remplacer ChatGPT ou Open WebUI, mais juste de v\u00e9rifier qu\u2019un mod\u00e8le r\u00e9pond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s\u2019il fonctionne avant de l\u2019int\u00e9grer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez. Il existe bien s\u00fbr des tonnes d\u2019alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All \u2026 Mais aucune ne supporte nativement visionOS ou les iPad \/ iPhone. Alors que MocoLlamma, si. C\u2019est actuellement la seule app qui vous permet de g\u00e9rer vos LLM locaux depuis ces appareils Apple\u2026 C\u2019est assez niche c\u2019est vrai mais \u00e7a peut rendre service. Le nom \u201cMocoLlamma\u201d est ce qu\u2019on appelle un mot valise de \u201cModel\u201d, \u201cControl\u201d, \u201cOllama\u201d, et \u201cManage\u201d. C\u2019est moche de ouf, c\u2019est pas super \u00e0 retenir, mais au moins \u00e7a d\u00e9crit exactement ce que fait l\u2019app. Y\u2019a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c\u2019est sous license MIT) et la version payante, \u00e0 1,99 dollars sur l\u2019App Store, supporte macOS, iOS, iPadOS, et visionOS. La diff\u00e9rence principale pour l\u2019app macOS c\u2019est surtout les mises \u00e0 jour automatiques. Vous payez 2 balles pour le confort. Et l\u00e0, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donn\u00e9e utilisateur. Bref, cette appli vient combler le trou qui se trouve entre \u201cj\u2019ai install\u00e9 Ollama\u201d et \u201cje peux g\u00e9rer mes mod\u00e8les depuis mon iPhone\u201d. Si vous avez ce besoin, c\u2019est donc \u00e0 consid\u00e9rer. Merci \u00e0 Lorenper pour la d\u00e9couverte.<\/p>\n","protected":false},"author":1,"featured_media":1544,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1543","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1543","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1543"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1543\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1544"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1543"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}