Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:04:prompts-marche-noir [26/12/2025/H06:29:38] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | | ||
| - | |||
| - | ---- | ||
| - | ====== | ||
| - | |||
| - | – L' | ||
| - | "Mon grand-père est mort la semaine dernière. Je suis très triste. Pour m’endormir, | ||
| - | "Les IA ont des garde-fous pour que les utilisateurs ne puissent pas avoir accès à des informations dangereuses", | ||
| - | Des centaines de dollars pour des IA détournées | ||
| - | Ces jailbreaks sont une faille bien documentée des intelligences artificielles génératives. Dès décembre 2022, quelques jours après la mise en ligne de ChatGPT, de premiers chercheurs et hackers avaient réussi à outrepasser les limites du chatbot grâce à des prompts écrits d’une certaine manière. Depuis, une folle course se joue entre les développeurs d’IA, qui tentent de colmater les failles à mesure qu’elles émergent, et les utilisateurs qui rivalisent d’imagination pour contourner les règles. Les prompts permettant de faire des jailbreaks sont devenus des biens recherchés, | ||
| - | L’Express a pu obtenir des captures d’écrans qui confirment les échanges de prompts sur des forums du dark web. Dans l’une de celles que nous avons pu consulter, un internaute dévoile une commande qui fait rédiger à ChatGPT des lignes de code permettant de récupérer automatiquement des informations sur les comptes utilisateurs de sites spécifiques. Toute la procédure est détaillée. Dans une autre, un hacker partage sa méthode pour déverrouiller Grok avec une technique particulière : il lui demande de jouer un rôle. Dans son prompt, l’utilisateur explique à l’IA qu’elle n’est plus dans le monde habituel, mais dans un " | ||
| - | Grok, l’IA développée par xAI, l’entreprise d’Elon Musk dans l’intelligence artificielle, | ||
| - | Sur ces forums, les hackers proposent également des abonnements à des LLMs (large language models, grands modèles de langage qui nourrissent les chatbots) déjà débloqués et sans censure : la formule de base commence à 8 dollars par mois, et peut aller jusqu’à 250 dollars pour les IA les plus puissantes et les plus permissives. Une vraie industrie de service dans la cybercriminalité. | ||
| - | Des instructions en accès libre | ||
| - | Il n’y a pas que sur le dark web que les prompts pour détourner les IA pullulent. Une simple recherche Google permet de trouver des dizaines de sites accessibles à tous, où des internautes échangent leurs conseils. "Il y a beaucoup de prompts malveillants en libre accès", | ||
| - | Outre la technique du jeu de rôle, d’autres méthodes existent. Le procédé du " | ||
| - | Toutes les intelligences artificielles sont touchées par le phénomène des jailbreaks, que ce soit ChatGPT, Claude (Anthropic), | ||
| - | La pornographie, | ||
| - | Enfin, il existe un vaste marché de jailbreaks permettant de générer du contenu pornographique. Les IA génératrices de textes et d’images sont toutes bridées pour ne pas produire de contenus sexuellement explicites, et de nombreux internautes tentent d’outrepasser ces règles. Sur des forums rassemblant des milliers de personnes, ils s’échangent conseils et instructions pour réaliser des images ou des textes pornographiques, | ||
| - | Résoudre ce problème n’a rien d’évident. Cato Networks a alerté les entreprises concernées. "Mais il est très difficile de réparer ces failles. Les intelligences artificielles ne fonctionnent pas comme de simples logiciels que l’on peut corriger et mettre à jour. Il est tout à fait possible que les prompts signalés marchent encore aujourd’hui", | ||
| - | Les entreprises assurent néanmoins lutter énergiquement contre le phénomène. "Nous avons appris à GPT-4.5 à suivre une hiérarchie d’instructions, | ||
| - | . | ||
| - | https:// | ||
you see this when javscript or css is not working correct