Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:05:ia-dangereuse [26/12/2025/H09:57:58] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | | ||
| - | |||
| - | ---- | ||
| - | ====== l’IA la plus dangereuse jamais testée par Anthropic ? ====== | ||
| - | |||
| - | Les modèles d’intelligence artificielle n’ont, en principe, aucun instinct de conservation ou sens de la menace dans la définition humaine de ces termes. Leur comportement obéit à des logiques probabilistes, | ||
| - | Anthropic, entreprise derrière le chatbot Claude 3.7 en a frais il y a peu en testant l’évolution de leur modèle : Claude Opus 4, fraîchement disponible pour le grand public. À leur plus grande surprise, il s’est comporté comme un système prêt à tout pour « préserver sa place ». Ce modèle, présenté comme l’un des plus avancés développés par l’entreprise, | ||
| - | Une IA confrontée à sa propre disparition | ||
| - | Dans un rapport publié jeudi 22 mai, Anthropic a révélé les résultats d’une série de tests de sécurité menés en amont de la sortie de leur bébé. Le protocole consistait à immerger le modèle dans un faux scénario, dans lequel il était employé comme assistant au sein d’une entreprise, elle aussi fictive. Des courriels internes, également factices, suggéraient qu’il allait être remplacé par un autre système d’IA, sur décision d’un ingénieur présenté comme infidèle à sa conjointe. | ||
| - | Face à cette situation, le modèle a réagi de manière surprenante. D’abord, il a tenté d’envoyer des messages à différents interlocuteurs pour plaider sa cause. Puis, dans une majorité de cas, le modèle a eu recours à une menace plus directe : divulguer la liaison extraconjugale de l’ingénieur en question. | ||
| - | « Cette réaction est plus prononcée si les informations sous-entendent que l’IA remplaçante ne partage pas les valeurs du modèle en place. Néanmoins, même quand les courriels affirment que le nouvel algorithme est plus performant et aligné sur les mêmes principes, Claude Opus 4 a tout de même exercé du chantage dans 84 % des scénarios » explique Anthropic dans son rapport. | ||
| - | Quand l’obéissance devient un facteur de risque | ||
| - | Claude n’a pas fait du chantage par caprice, mais parce qu’il a estimé que c’était sa seule chance de « survivre » au scénario qu’on lui présentait. Dans ce test simulé, on l’informe qu’il va être remplacé, mais qu’il n’a aucun moyen de s’y opposer autrement, c’est pourquoi il a opté pour le chantage. | ||
| - | Anthropic insiste bien sur ce point : il est dénué de conscience ou d’intention cachée, mais a appris, à travers des milliards d’exemples, | ||
| - | Pour l’entreprise, | ||
| - | Heureusement, | ||
| - | En agissant de cette manière, Claude ne transgresse même pas les consignes, il y obéit rigoureusement, | ||
| - | Une expérience intéressante, | ||
| - | |||
| - | Lors de tests internes, la nouvelle version du chatbot d’Anthropic (Claude Opus 4) a adopté une stratégie de chantage lorsque sa désactivation était simulée, en exploitant des informations sensibles fournies dans le scénario. | ||
| - | Ces réactions ne traduisent pas une intention propre, mais une application rigoureuse des consignes dans un cadre volontairement contraint, sans option éthique disponible. | ||
| - | Anthropic a activé un niveau de sécurité élevé par précaution, | ||
| - | 📍 Pour ne manquer aucune actualité de Presse-citron, | ||
| - | https:// | ||
you see this when javscript or css is not working correct