﻿﻿{"id":2685,"date":"2026-04-07T15:30:00","date_gmt":"2026-04-07T13:30:00","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/catai-des-chats-pixel-art-boostes-a-lia-sur-votre-dock\/"},"modified":"2026-04-07T15:30:00","modified_gmt":"2026-04-07T13:30:00","slug":"catai-des-chats-pixel-art-boostes-a-lia-sur-votre-dock","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/catai-des-chats-pixel-art-boostes-a-lia-sur-votre-dock\/","title":{"rendered":"CATAI &#8211; Des chats pixel art boost\u00e9s \u00e0 l&#8217;IA sur votre dock"},"content":{"rendered":"<p>Des chats en pixel art qui se baladent sur votre dock macOS et qui causent gr\u00e2ce \u00e0 un LLM local&#8230; non vous ne r\u00eavez pas car c&#8217;est ce qu&#8217;on peut obtenir avec<br \/>\n<a href=\"https:\/\/github.com\/wil-pe\/CATAI\">CATAI<\/a><br \/>\n, qui vous fera adopter 6 matous virtuels avec chacun sa personnalit\u00e9.<\/p>\n<p>En gros, c&#8217;est le Tamagotchi de votre dock, sauf qu&#8217;au lieu de biper quand il a faim, il vous cite du Nietzsche. Vous lancez l&#8217;app, et hop, un chat orange d\u00e9barque. Il marche, il mange, il dort, il s&#8217;\u00e9nerve&#8230; soit 368 sprites dessin\u00e9s \u00e0 la main (c&#8217;est devenu assez rare pour le souligner !!). Et quand le dock est masqu\u00e9, le chat se t\u00e9l\u00e9porte directement sur le bord sup\u00e9rieur de votre fen\u00eatre active. Parce que vous le savez, un chat, \u00e7a squatte toujours les rebords les plus improbables.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/catai-chats-pixel-art-ia-ollama-macos\/catai-chats-pixel-art-ia-ollama-macos-1.jpeg\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Vous pouvez en coller jusqu&#8217;\u00e0 6 en m\u00eame temps, chacun avec sa couleur et son caract\u00e8re. Le noir (Ombre) est philosophe et vous pose des questions existentielles, le blanc (Neige) s&#8217;exprime en vers, le gris (Einstein) vous balance des faits scientifiques et le brun (Indiana) raconte des aventures. De temps en temps, ils miaulent tout seuls dans des bulles pixel art. &#8220;Mrrp !&#8221;, &#8220;Prrr&#8230;&#8221;, &#8220;ronronronron&#8221;. Perso, je trouve \u00e7a craquant.<\/p>\n<p>Et quand vous cliquez sur un chat, \u00e7a ouvre une bulle de discussion connect\u00e9e \u00e0<br \/>\n<a href=\"https:\/\/korben.info\/ollama-web-search-api-tutoriel-ia-locale.html\">Ollama<\/a><br \/>\n(le moteur d&#8217;IA locale que vous connaissez s\u00fbrement). Si vous avez d\u00e9j\u00e0 un mod\u00e8le qui tourne, votre matou vous r\u00e9pond alors avec sa propre personnalit\u00e9. La m\u00e9moire de conversation est m\u00eame persistante entre les sessions (max 20 messages par chat, pour garder un contexte de conversation raisonnable).<\/p>\n<p>Comme c&#8217;est du Swift pur, juste les Command Line Tools suffisent pour compiler le fichier source :<\/p>\n<div class=\"highlight\">\n<pre class=\"chroma\"><code class=\"language-fallback\" data-lang=\"fallback\"><span class=\"line\"><span class=\"cl\">swiftc -O -o cat cat.swift -framework AppKit -framework Foundation\n<\/span><\/span><\/code><\/pre>\n<p>La compilation prend genre 3 secondes sur un M1, et le binaire p\u00e8se dans les 500 Ko, soit moins qu&#8217;une photo iPhone. Y&#8217;a aussi un <code>build.sh<\/code> qui cr\u00e9e un <code>.app<\/code> propre avec son ic\u00f4ne si vous pr\u00e9f\u00e9rez.<\/p>\n<p>Les plus anciens d&#8217;entre vous se souviendront peut-\u00eatre de Neko, le petit chat qui courait apr\u00e8s votre curseur, port\u00e9 sur Mac en 1989 par Kenji Gotoh. L&#8217;un des premiers desktop pets connus. Sauf que l\u00e0, comme on est en 2026, le chat vous fait la conversation via un LLM local. Si vous bidouillez d\u00e9j\u00e0 avec Ollama ou que vous avez d\u00e9couvert<br \/>\n<a href=\"https:\/\/korben.info\/apfel-ia-mac-apple-silicon.html\">le LLM cach\u00e9 de votre Mac<\/a><br \/>\n, c&#8217;est un usage auquel vous n&#8217;aviez probablement pas pens\u00e9.<\/p>\n<p>Notez que sans Ollama, \u00e7a fonctionne, les chats se baladent mais restent muets (ce qui est d\u00e9j\u00e0 sympa en soi). Et si vous collez un mod\u00e8le trop lourd genre un 70B, \u00e7a va ramer vu que le streaming passe par localhost. Un petit Qwen 2.5 ou Llama 3.2 3B fait largement le taf pour des r\u00e9ponses de chat en 2-3 phrases.<\/p>\n<p>Merci \u00e0 William pour la d\u00e9couverte.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Des chats en pixel art qui se baladent sur votre dock macOS et qui causent gr\u00e2ce \u00e0 un LLM local&#8230; non vous ne r\u00eavez pas car c&#8217;est ce qu&#8217;on peut obtenir avec CATAI , qui vous fera adopter 6 matous virtuels avec chacun sa personnalit\u00e9. En gros, c&#8217;est le Tamagotchi de votre dock, sauf qu&#8217;au lieu de biper quand il a faim, il vous cite du Nietzsche. Vous lancez l&#8217;app, et hop, un chat orange d\u00e9barque. Il marche, il mange, il dort, il s&#8217;\u00e9nerve&#8230; soit 368 sprites dessin\u00e9s \u00e0 la main (c&#8217;est devenu assez rare pour le souligner !!). Et quand le dock est masqu\u00e9, le chat se t\u00e9l\u00e9porte directement sur le bord sup\u00e9rieur de votre fen\u00eatre active. Parce que vous le savez, un chat, \u00e7a squatte toujours les rebords les plus improbables. Vous pouvez en coller jusqu&#8217;\u00e0 6 en m\u00eame temps, chacun avec sa couleur et son caract\u00e8re. Le noir (Ombre) est philosophe et vous pose des questions existentielles, le blanc (Neige) s&#8217;exprime en vers, le gris (Einstein) vous balance des faits scientifiques et le brun (Indiana) raconte des aventures. De temps en temps, ils miaulent tout seuls dans des bulles pixel art. &#8220;Mrrp !&#8221;, &#8220;Prrr&#8230;&#8221;, &#8220;ronronronron&#8221;. Perso, je trouve \u00e7a craquant. Et quand vous cliquez sur un chat, \u00e7a ouvre une bulle de discussion connect\u00e9e \u00e0 Ollama (le moteur d&#8217;IA locale que vous connaissez s\u00fbrement). Si vous avez d\u00e9j\u00e0 un mod\u00e8le qui tourne, votre matou vous r\u00e9pond alors avec sa propre personnalit\u00e9. La m\u00e9moire de conversation est m\u00eame persistante entre les sessions (max 20 messages par chat, pour garder un contexte de conversation raisonnable). Comme c&#8217;est du Swift pur, juste les Command Line Tools suffisent pour compiler le fichier source : swiftc -O -o cat cat.swift -framework AppKit -framework Foundation La compilation prend genre 3 secondes sur un M1, et le binaire p\u00e8se dans les 500 Ko, soit moins qu&#8217;une photo iPhone. Y&#8217;a aussi un build.sh qui cr\u00e9e un .app propre avec son ic\u00f4ne si vous pr\u00e9f\u00e9rez. Les plus anciens d&#8217;entre vous se souviendront peut-\u00eatre de Neko, le petit chat qui courait apr\u00e8s votre curseur, port\u00e9 sur Mac en 1989 par Kenji Gotoh. L&#8217;un des premiers desktop pets connus. Sauf que l\u00e0, comme on est en 2026, le chat vous fait la conversation via un LLM local. Si vous bidouillez d\u00e9j\u00e0 avec Ollama ou que vous avez d\u00e9couvert le LLM cach\u00e9 de votre Mac , c&#8217;est un usage auquel vous n&#8217;aviez probablement pas pens\u00e9. Notez que sans Ollama, \u00e7a fonctionne, les chats se baladent mais restent muets (ce qui est d\u00e9j\u00e0 sympa en soi). Et si vous collez un mod\u00e8le trop lourd genre un 70B, \u00e7a va ramer vu que le streaming passe par localhost. Un petit Qwen 2.5 ou Llama 3.2 3B fait largement le taf pour des r\u00e9ponses de chat en 2-3 phrases. Merci \u00e0 William pour la d\u00e9couverte.<\/p>\n","protected":false},"author":1,"featured_media":2686,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-2685","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2685","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=2685"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/2685\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/2686"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=2685"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}