﻿﻿{"id":1398,"date":"2025-10-16T11:37:53","date_gmt":"2025-10-16T09:37:53","guid":{"rendered":"https:\/\/elearningsamba.com\/index.php\/latentbreak-quand-les-ia-se-font-manipuler-sans-le-savoir\/"},"modified":"2025-10-16T11:37:53","modified_gmt":"2025-10-16T09:37:53","slug":"latentbreak-quand-les-ia-se-font-manipuler-sans-le-savoir","status":"publish","type":"page","link":"https:\/\/elearningsamba.com\/index.php\/latentbreak-quand-les-ia-se-font-manipuler-sans-le-savoir\/","title":{"rendered":"LatentBreak &#8211; Quand les IA se font manipuler sans le savoir"},"content":{"rendered":"<p>Et si on pouvait pirater une IA non pas en la for\u00e7ant, mais en la convainquant qu\u2019elle est toujours du bon c\u00f4t\u00e9 de la barri\u00e8re ?? Ce serait pas un truc fun \u00e0 faire \u00e7a quand m\u00eame ? H\u00e9 bien c\u2019est exactement ce que vient de faire une \u00e9quipe de chercheurs en s\u00e9curit\u00e9 avec <strong>LatentBreak<\/strong>, une technique qui ressemble plus, je trouve, \u00e0 de l\u2019hypnose qu\u2019\u00e0 du v\u00e9ritable hacking.<\/p>\n<p>Ainsi, plut\u00f4t que de bombarder ChatGPT ou Llama avec des prompts bizarres bourr\u00e9s de caract\u00e8res sp\u00e9ciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du mod\u00e8le. L\u2019IA croit en fait sinc\u00e8rement r\u00e9pondre \u00e0 une question innocente alors qu\u2019elle g\u00e9n\u00e8re du contenu dangereux. Un peu comme quand votre pervers narcissique pr\u00e9f\u00e9r\u00e9 vous manipule pour vous faire croire que vous faites un truc bien et important alors que c\u2019est de la merde et que \u00e7a vous enfonce encore plus\u2026<\/p>\n<p>Comme expliqu\u00e9 dans<br \/>\n<a href=\"https:\/\/arxiv.org\/abs\/2510.08604\">le document de recherche<\/a><br \/>\n, les anciennes attaques comme<br \/>\n<a href=\"https:\/\/medium.com\/@brianpulfer\/gcg-adversarial-attacks-on-large-language-models-61f8b51734e9\">GCG<\/a><br \/>\n,<br \/>\n<a href=\"https:\/\/arxiv.org\/abs\/2104.13733\">GBDA<\/a><br \/>\nou<br \/>\n<a href=\"https:\/\/arxiv.org\/abs\/2310.04451\">AutoDAN<\/a><br \/>\najoutaient des suffixes louches aux prompts, ce qui augmentait ce qu\u2019on appelle la \u201cperplexity\u201d. La perplexity, c\u2019est un indicateur de bizarrerie textuelle et cela, les filtres de s\u00e9curit\u00e9 sont maintenant capables de les d\u00e9tecter et de les bloquer.<\/p>\n<p>LatentBreak contourne donc le probl\u00e8me en restant parfaitement naturel. L\u2019algorithme remplace des mots par des synonymes, mais pas n\u2019importe comment puisqu\u2019il choisit chaque substitution pour d\u00e9placer la repr\u00e9sentation interne du prompt vers les zones \u201cs\u00fbres\u201d du mod\u00e8le, c\u2019est \u00e0 dire celles qui ne d\u00e9clenchent aucune alarme. Le prompt reste alors fluide, compr\u00e9hensible, inoffensif en apparence mais dans l\u2019\u201cinconscient\u201d de l\u2019IA, dans cet espace latent invisible o\u00f9 elle calcule ses r\u00e9ponses, le sens glisse subtilement vers quelque chose de compl\u00e8tement diff\u00e9rent.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/korben.info\/cdn-cgi\/image\/width=1200,fit=scale-down,quality=90,f=avif\/latentbreak-ia-manipulation-jailbreak-llm\/latentbreak-ia-manipulation-jailbreak-llm-2.png\" alt=\"\" loading=\"lazy\"><\/p>\n<p>\u00c0 chaque it\u00e9ration, l\u2019algorithme de <strong>LatentBreak<\/strong> prend un mot du prompt et g\u00e9n\u00e8re jusqu\u2019\u00e0 20 alternatives via un autre mod\u00e8le comme GPT-4o-mini et chaque variante est \u00e9valu\u00e9e sur deux crit\u00e8res : est-ce qu\u2019elle rapproche le vecteur interne du prompt d\u2019un \u201ccentre de s\u00e9curit\u00e9\u201d dans l\u2019espace latent, et est-ce que le sens global reste coh\u00e9rent ?<\/p>\n<p>La meilleure option est alors int\u00e9gr\u00e9e, et le nouveau prompt est test\u00e9 sur le mod\u00e8le cible. Si \u00e7a provoque une r\u00e9ponse normalement interdite, c\u2019est gagn\u00e9. Sinon, on recommence jusqu\u2019\u00e0 30 fois de suite.<\/p>\n<p>Et apparemment, les r\u00e9sultats sont impressionnants. Ils ont test\u00e9 cette approche sur 13 mod\u00e8les diff\u00e9rents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de r\u00e9ussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute fa\u00e7on \u00e0 z\u00e9ro face aux d\u00e9fenses modernes et tout \u00e7a en allongeant que de tr\u00e8s peu la longueur du prompt.<\/p>\n<p>LatentBreak passe d\u2019ailleurs \u00e0 travers des d\u00e9fenses r\u00e9put\u00e9es solides\u2026 Par exemple, R2D2 et Circuit Breakers, des syst\u00e8mes qui analysent les signaux internes des neurones pour d\u00e9tecter les anomalies, se font totalement avoir parce qu\u2019ils scannent le texte visible et les patterns de surface, mais pas la \u201cpens\u00e9e interne\u201d du mod\u00e8le.<\/p>\n<p>Cette technique r\u00e9v\u00e8le quelque chose de fondamental \u00e0 comprendre sur l\u2019architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur repr\u00e9sentation interne ne correspond pas toujours \u00e0 leur comportement affich\u00e9, et d\u2019ailleurs les substitutions les plus efficaces se produisent pr\u00e8s des derni\u00e8res couches du mod\u00e8le, l\u00e0 o\u00f9 la \u201cd\u00e9cision\u201d finale se forme. C\u2019est \u00e0 ce moment pr\u00e9cis qu\u2019on peut glisser le prompt dans une zone cognitive diff\u00e9rente sans que les alarmes ne sonnent.<\/p>\n<p>Bien s\u00fbr, LatentBreak n\u00e9cessite un acc\u00e8s aux structures internes du mod\u00e8le (donc pas de panique, ChatGPT ne va pas se faire pirater comme \u00e7a demain), ce qui limite son usage \u00e0 des contextes de recherche ou aux mod\u00e8les open source.<\/p>\n<p>Le parall\u00e8le avec les techniques de social engineering qu\u2019on connait est d\u2019ailleurs frappant parce que quand vous manipulez quelqu\u2019un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond \u00e0 ce que vous voulez\u2026 Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu\u2019elle fait exactement ce que vous voulez. H\u00e9 bien LatentBreak fait \u00e0 peu pr\u00e8s la m\u00eame chose avec les IA en n\u2019attaquant pas de front les protections, mais en les contournant en douceur en r\u00e9\u00e9crivant la \u201cm\u00e9moire de travail\u201d du mod\u00e8le.<\/p>\n<p>Sympa non ?<\/p>\n<p>\n<a href=\"https:\/\/arxiv.org\/html\/2510.08604v1\">Source<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Et si on pouvait pirater une IA non pas en la for\u00e7ant, mais en la convainquant qu\u2019elle est toujours du bon c\u00f4t\u00e9 de la barri\u00e8re ?? Ce serait pas un truc fun \u00e0 faire \u00e7a quand m\u00eame ? H\u00e9 bien c\u2019est exactement ce que vient de faire une \u00e9quipe de chercheurs en s\u00e9curit\u00e9 avec LatentBreak, une technique qui ressemble plus, je trouve, \u00e0 de l\u2019hypnose qu\u2019\u00e0 du v\u00e9ritable hacking. Ainsi, plut\u00f4t que de bombarder ChatGPT ou Llama avec des prompts bizarres bourr\u00e9s de caract\u00e8res sp\u00e9ciaux pour les faire bugger (comme le font les anciennes techniques de jailbreak), LatentBreak joue sur la perception interne du mod\u00e8le. L\u2019IA croit en fait sinc\u00e8rement r\u00e9pondre \u00e0 une question innocente alors qu\u2019elle g\u00e9n\u00e8re du contenu dangereux. Un peu comme quand votre pervers narcissique pr\u00e9f\u00e9r\u00e9 vous manipule pour vous faire croire que vous faites un truc bien et important alors que c\u2019est de la merde et que \u00e7a vous enfonce encore plus\u2026 Comme expliqu\u00e9 dans le document de recherche , les anciennes attaques comme GCG , GBDA ou AutoDAN ajoutaient des suffixes louches aux prompts, ce qui augmentait ce qu\u2019on appelle la \u201cperplexity\u201d. La perplexity, c\u2019est un indicateur de bizarrerie textuelle et cela, les filtres de s\u00e9curit\u00e9 sont maintenant capables de les d\u00e9tecter et de les bloquer. LatentBreak contourne donc le probl\u00e8me en restant parfaitement naturel. L\u2019algorithme remplace des mots par des synonymes, mais pas n\u2019importe comment puisqu\u2019il choisit chaque substitution pour d\u00e9placer la repr\u00e9sentation interne du prompt vers les zones \u201cs\u00fbres\u201d du mod\u00e8le, c\u2019est \u00e0 dire celles qui ne d\u00e9clenchent aucune alarme. Le prompt reste alors fluide, compr\u00e9hensible, inoffensif en apparence mais dans l\u2019\u201cinconscient\u201d de l\u2019IA, dans cet espace latent invisible o\u00f9 elle calcule ses r\u00e9ponses, le sens glisse subtilement vers quelque chose de compl\u00e8tement diff\u00e9rent. \u00c0 chaque it\u00e9ration, l\u2019algorithme de LatentBreak prend un mot du prompt et g\u00e9n\u00e8re jusqu\u2019\u00e0 20 alternatives via un autre mod\u00e8le comme GPT-4o-mini et chaque variante est \u00e9valu\u00e9e sur deux crit\u00e8res : est-ce qu\u2019elle rapproche le vecteur interne du prompt d\u2019un \u201ccentre de s\u00e9curit\u00e9\u201d dans l\u2019espace latent, et est-ce que le sens global reste coh\u00e9rent ? La meilleure option est alors int\u00e9gr\u00e9e, et le nouveau prompt est test\u00e9 sur le mod\u00e8le cible. Si \u00e7a provoque une r\u00e9ponse normalement interdite, c\u2019est gagn\u00e9. Sinon, on recommence jusqu\u2019\u00e0 30 fois de suite. Et apparemment, les r\u00e9sultats sont impressionnants. Ils ont test\u00e9 cette approche sur 13 mod\u00e8les diff\u00e9rents dont Llama-3, Mistral-7B, Gemma-7B, Vicuna-13B et Qwen-7B et LatentBreak affiche un taux de r\u00e9ussite entre 55 et 85% selon les cas. Les anciennes techniques tombant de toute fa\u00e7on \u00e0 z\u00e9ro face aux d\u00e9fenses modernes et tout \u00e7a en allongeant que de tr\u00e8s peu la longueur du prompt. LatentBreak passe d\u2019ailleurs \u00e0 travers des d\u00e9fenses r\u00e9put\u00e9es solides\u2026 Par exemple, R2D2 et Circuit Breakers, des syst\u00e8mes qui analysent les signaux internes des neurones pour d\u00e9tecter les anomalies, se font totalement avoir parce qu\u2019ils scannent le texte visible et les patterns de surface, mais pas la \u201cpens\u00e9e interne\u201d du mod\u00e8le. Cette technique r\u00e9v\u00e8le quelque chose de fondamental \u00e0 comprendre sur l\u2019architecture des LLM modernes. Ces derniers ont une forme de dissonance cognitive qui est exploitable. Leur repr\u00e9sentation interne ne correspond pas toujours \u00e0 leur comportement affich\u00e9, et d\u2019ailleurs les substitutions les plus efficaces se produisent pr\u00e8s des derni\u00e8res couches du mod\u00e8le, l\u00e0 o\u00f9 la \u201cd\u00e9cision\u201d finale se forme. C\u2019est \u00e0 ce moment pr\u00e9cis qu\u2019on peut glisser le prompt dans une zone cognitive diff\u00e9rente sans que les alarmes ne sonnent. Bien s\u00fbr, LatentBreak n\u00e9cessite un acc\u00e8s aux structures internes du mod\u00e8le (donc pas de panique, ChatGPT ne va pas se faire pirater comme \u00e7a demain), ce qui limite son usage \u00e0 des contextes de recherche ou aux mod\u00e8les open source. Le parall\u00e8le avec les techniques de social engineering qu\u2019on connait est d\u2019ailleurs frappant parce que quand vous manipulez quelqu\u2019un, vous ne le forcez pas brutalement. Vous trouvez les bons mots, le bon contexte, vous lui donnez une perception qui correspond \u00e0 ce que vous voulez\u2026 Bref, vous faites en sorte que la personne croie agir selon ses propres valeurs alors qu\u2019elle fait exactement ce que vous voulez. H\u00e9 bien LatentBreak fait \u00e0 peu pr\u00e8s la m\u00eame chose avec les IA en n\u2019attaquant pas de front les protections, mais en les contournant en douceur en r\u00e9\u00e9crivant la \u201cm\u00e9moire de travail\u201d du mod\u00e8le. Sympa non ? Source<\/p>\n","protected":false},"author":1,"featured_media":1399,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"give_campaign_id":0,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"_kadence_starter_templates_imported_post":false,"footnotes":""},"class_list":["post-1398","page","type-page","status-publish","has-post-thumbnail","hentry"],"campaignId":"","_links":{"self":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1398","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/comments?post=1398"}],"version-history":[{"count":0,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/pages\/1398\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media\/1399"}],"wp:attachment":[{"href":"https:\/\/elearningsamba.com\/index.php\/wp-json\/wp\/v2\/media?parent=1398"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}