﻿﻿{"id":1955,"date":"2026-01-01T14:41:47","date_gmt":"2026-01-01T13:41:47","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/lumen-lia-qui-ecrit-vos-messages-de-commit-et-bien-plus-encore\/"},"modified":"2026-01-01T14:41:47","modified_gmt":"2026-01-01T13:41:47","slug":"lumen-lia-qui-ecrit-vos-messages-de-commit-et-bien-plus-encore","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/lumen-lia-qui-ecrit-vos-messages-de-commit-et-bien-plus-encore\/","title":{"rendered":"Lumen &#8211; L&#8217;IA qui \u00e9crit vos messages de commit et bien plus encore"},"content":{"rendered":"<p>Soyez honn\u00eates, c&#8217;est quoi votre dernier message de commit ? &#8220;<em>fix<\/em>&#8220;, &#8220;<em>update<\/em>&#8220;, &#8220;<em>refactor<\/em>&#8221; ou les grands classiques &#8220;<em>\u00c7a marche, on ne touche plus<\/em>&#8221; ou &#8220;<em>azertyuiop<\/em>^$&#8221; ?<\/p>\n<p>Si vous vous reconnaissez, alors Lumen va peut-\u00eatre vous sauver la mise.<\/p>\n<p>\n<a href=\"https:\/\/github.com\/jnsahaj\/lumen\">Lumen<\/a><br \/>\nc&#8217;est un outil en ligne de commande \u00e9crit en Rust qui utilise l&#8217;IA pour vous aider \u00e0 g\u00e9rer votre workflow Git. En gros, vous stagez vos fichiers, vous lancez <code>lumen draft<\/code> et hop, l&#8217;IA analyse vos modifications pour g\u00e9n\u00e9rer un message de commit propre au format conventionnel. Fini les &#8220;fixed stuff&#8221; \u00e0 3h du mat.<\/p>\n<p>Mais le truc va plus loin que \u00e7a puisque vous pouvez aussi lui demander d&#8217;expliquer un commit avec <code>lumen explain HEAD<\/code> (ou un hash, une plage de commits&#8230;). Pratique quand vous tombez sur du code \u00e9crit par vous-m\u00eame il y a 6 mois et que vous n&#8217;y comprenez plus rien. D&#8217;ailleurs, y&#8217;a m\u00eame une fonctionnalit\u00e9 de recherche interactive dans l&#8217;historique avec <code>lumen list<\/code> si vous avez fzf d&#8217;install\u00e9.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/lumen-cli-git-ia-rust\/lumen-cli-git-ia-rust-1.gif\" alt=\"\" loading=\"lazy\"><\/p>\n<p>Et le plus cool, c&#8217;est la commande <code>lumen operate<\/code>. Vous lui d\u00e9crivez en langage naturel ce que vous voulez faire genre &#8220;<em>squash mes 3 derniers commits<\/em>&#8221; et il vous g\u00e9n\u00e8re la commande Git correspondante. Avec un warning si la commande est potentiellement destructrice et une demande de confirmation avant ex\u00e9cution, histoire de pas faire de b\u00eatises.<\/p>\n<p>C\u00f4t\u00e9 providers, c&#8217;est flexible&#8230; OpenAI, Anthropic Claude, Gemini, Groq, DeepSeek, Ollama pour du local, et d&#8217;autres encore&#8230; Vous configurez \u00e7a une fois avec <code>lumen configure<\/code> pour les commandes IA et c&#8217;est parti. Le diff viewer int\u00e9gr\u00e9 est pas mal non plus (et lui fonctionne sans config), avec une vue c\u00f4te \u00e0 c\u00f4te dans le terminal et la possibilit\u00e9 de naviguer entre les hunks.<\/p>\n<p>L&#8217;installation se fait via Homebrew sur Mac\/Linux avec <code>brew install jnsahaj\/lumen\/lumen<\/code> ou via Cargo si vous avez Rust. C&#8217;est open source sous licence MIT.<\/p>\n<p>Perso, je trouve que c&#8217;est le genre d&#8217;outil bien pratique pour ceux qui gal\u00e8rent avec leurs messages de commit ou qui passent leur temps \u00e0 chercher des commandes Git obscures. Et le fait que \u00e7a tourne avec diff\u00e9rents providers IA, y compris en local avec Ollama, c&#8217;est \u00e9galement un vrai plus pour ceux qui veulent pas envoyer leur code sur des serveurs externes.<\/p>\n<p>A tester donc !<\/p>\n<p>\n<a href=\"https:\/\/github.com\/jnsahaj\/lumen\">Source<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Soyez honn\u00eates, c&#8217;est quoi votre dernier message de commit ? &#8220;fix&#8220;, &#8220;update&#8220;, &#8220;refactor&#8221; ou les grands classiques &#8220;\u00c7a marche, on ne touche plus&#8221; ou &#8220;azertyuiop^$&#8221; ? Si vous vous reconnaissez, alors Lumen va peut-\u00eatre vous sauver la mise. Lumen c&#8217;est un outil en ligne de commande \u00e9crit en Rust qui utilise l&#8217;IA pour vous aider \u00e0 g\u00e9rer votre workflow Git. En gros, vous stagez vos fichiers, vous lancez lumen draft et hop, l&#8217;IA analyse vos modifications pour g\u00e9n\u00e9rer un message de commit propre au format conventionnel. Fini les &#8220;fixed stuff&#8221; \u00e0 3h du mat. Mais le truc va plus loin que \u00e7a puisque vous pouvez aussi lui demander d&#8217;expliquer un commit avec lumen explain HEAD (ou un hash, une plage de commits&#8230;). Pratique quand vous tombez sur du code \u00e9crit par vous-m\u00eame il y a 6 mois et que vous n&#8217;y comprenez plus rien. D&#8217;ailleurs, y&#8217;a m\u00eame une fonctionnalit\u00e9 de recherche interactive dans l&#8217;historique avec lumen list si vous avez fzf d&#8217;install\u00e9. Et le plus cool, c&#8217;est la commande lumen operate. Vous lui d\u00e9crivez en langage naturel ce que vous voulez faire genre &#8220;squash mes 3 derniers commits&#8221; et il vous g\u00e9n\u00e8re la commande Git correspondante. Avec un warning si la commande est potentiellement destructrice et une demande de confirmation avant ex\u00e9cution, histoire de pas faire de b\u00eatises. C\u00f4t\u00e9 providers, c&#8217;est flexible&#8230; OpenAI, Anthropic Claude, Gemini, Groq, DeepSeek, Ollama pour du local, et d&#8217;autres encore&#8230; Vous configurez \u00e7a une fois avec lumen configure pour les commandes IA et c&#8217;est parti. Le diff viewer int\u00e9gr\u00e9 est pas mal non plus (et lui fonctionne sans config), avec une vue c\u00f4te \u00e0 c\u00f4te dans le terminal et la possibilit\u00e9 de naviguer entre les hunks. L&#8217;installation se fait via Homebrew sur Mac\/Linux avec brew install jnsahaj\/lumen\/lumen ou via Cargo si vous avez Rust. C&#8217;est open source sous licence MIT. Perso, je trouve que c&#8217;est le genre d&#8217;outil bien pratique pour ceux qui gal\u00e8rent avec leurs messages de commit ou qui passent leur temps \u00e0 chercher des commandes Git obscures. Et le fait que \u00e7a tourne avec diff\u00e9rents providers IA, y compris en local avec Ollama, c&#8217;est \u00e9galement un vrai plus pour ceux qui veulent pas envoyer leur code sur des serveurs externes. A tester donc ! Source<\/p>\n","protected":false},"author":1,"featured_media":1956,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1955","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1955","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1955"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1955\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1956"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1955"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}