Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:08:ia-claude-boque [26/12/2025/H08:15:24] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== L’IA Claude reçoit une nouvelle fonction contre les utilisateurs pénibles (et ça pourrait tout changer) ====== | ||
| - | |||
| - | |||
| - | Anthropic poursuit le développement de Claude, son intelligence artificielle. Après l’avoir dotée d’une nouvelle fonction de mémoire à la demande, l’entreprise se tourne désormais vers un autre aspect : le « bien-être des modèles », en lui permettant de mettre fin à des conversations « pénibles ». | ||
| - | Crédits : Anthropic | ||
| - | Les entreprises qui développent des modèles d’intelligence artificielle équipent leurs chatbots de garde-fous et de filtres de contenu, afin d’éviter que leur chatbot ne dérape – comme ça a été le cas plusieurs fois avec Grok, l’IA d’Elon Musk. Concrètement, | ||
| - | Dans certains cas plus extrêmes, les modèles disposent même d’un mécanisme de coupure leur permettant de mettre fin à une conversation. Et c’est précisément de cette nouvelle fonctionnalité qu’Anthropic vient d’équiper son IA, baptisée Claude. Mais cette fois-ci, elle sert un but bien différent. | ||
| - | L’IA Claude peut maintenant interrompre une conversation pour se protéger elle-même | ||
| - | Anthropic continue d’enrichir Claude de nouvelles options, comme une mémoire à la demande, qui permet à l’utilisateur d’instaurer une relation plus maîtrisée avec l’IA. L’entreprise vient en effet d’annoncer une nouvelle fonctionnalité : la capacité pour ses modèles les plus récents, Claude Opus 4 et 4.1, d’interrompre une conversation avec un utilisateur dans « de rares cas extrêmes d’interactions persistantes, | ||
| - | D’après Anthropic, cette fonctionnalité n’interviendra qu’en dernier recours, dans « des cas extrêmes et marginaux », après plusieurs tentatives de redirection vaines ou si l’utilisateur en fait lui-même la demande. Claude ne pourra pas non plus utiliser cette fonction en cas de risque de blessure imminent, qu’il soit pour l’utilisateur lui-même ou pour les autres. Concrètement, | ||
| - | Mais cette nouveauté n’a pas été créée pour protéger les utilisateurs – ou du moins pas directement –, mais l’IA elle-même. En effet, elle s’inscrit dans le nouveau programme de recherche d’Anthropic, | ||
| - | https:// | ||
you see this when javscript or css is not working correct