Utilisateur non connecté
+++++ Le créateur de ChatGPT craint que son IA fasse perdre beaucoup d'argent à des milliers de personnes [ElseNews]

Outils pour utilisateurs

Outils du site


Action unknown: copypageplugin__copy
elsenews:spot-2025:08:ia-persuasion

https://www.jeuxvideo.com/news/2017319/le-createur-de-chatgpt-craint-que-son-ia-fasse-perdre-beaucoup-d-argent-a-des-milliers-de-personnes.htm

+++++ Le créateur de ChatGPT craint que son IA fasse perdre beaucoup d'argent à des milliers de personnes

Publié le 02/08/2025 à 19:10
Partager :
Profil de Loïc Nicolay aka « nicoln » , Jeuxvideo.com
Je suis un passionné de Tech et de science : de l’astronomie aux voitures électriques, en passant par l’informatique qui est à l’origine de ma passion pour la Tech. Sans oublier mes sports : la force athlétique, le tennis et les sports mécaniques. Bref, ma vie gravite autour du sport et de la Tech.
Sam Altman, PDG d'OpenAI, est l'un des premiers à le dire : le plus grand danger de l'IA n'est pas celui que l'on croit. Oubliez la science-fiction, la vraie menace est la « persuasion interactive individualisée », une arme de manipulation psychologique massive contre laquelle une course contre la montre est lancée.

Le créateur de ChatGPT craint que son IA fasse perdre beaucoup d'argent à des milliers de personnes
124 464 vues
La persuasion, l'arme ultime de l'IA
Il y a un paradoxe saisissant au cœur de la révolution de l'IA. Sam Altman, le PDG d'OpenAI et figure de proue de cette technologie, est aussi l'un des prophètes les plus écoutés de ses dangers imminents. Mais contrairement aux craintes populaires nourries par la science-fiction, le cauchemar qui hante Altman n'est pas celui de robots terminators. La menace qu'il décrit est plus subtile et beaucoup plus proche : ce qu'il nomme l'« IA de persuasion interactive et individualisée ». Ce n'est pas une arme contre nos corps, mais une arme contre notre esprit, une force capable de manipuler les croyances et les comportements à une échelle et avec une efficacité jamais vues. Alors que le monde s'émerveille des prouesses de ChatGPT, son créateur nous met en garde : une course contre la montre est engagée pour bâtir des défenses avant que cette technologie ne sape les fondements de notre confiance.

Pour comprendre l'avertissement d'Altman, il faut dépasser les clichés. Le vrai danger n'est pas seulement le "deepfake", cette capacité à générer du faux indiscernable du vrai.

C'est la « persuasion interactive un-à-un ». « Un-à-un » signifie que l'IA peut s'adresser à chaque individu de manière personnalisée, en exploitant ses données, son historique, ses publications. « Interactive » signifie que ce n'est pas un message statique, mais un dialogue continu qui s'adapte en temps réel aux réactions de la cible.

C'est là que réside la nouveauté radicale. Il ne s'agit plus de propagande de masse, mais de manipulation chirurgicale et automatisée. Altman craint que l'IA ne découvre des méthodes de persuasion subtilement différentes et potentiellement plus efficaces que tout ce que nous connaissons, en analysant des millénaires de rhétorique et en testant des milliards de variations sur des millions d'humains. L'humanité a passé des siècles à développer des techniques de manipulation ; une IA pourrait en découvrir de nouvelles en quelques mois, exploitant des failles psychologiques que nous ignorons nous-mêmes.

Appliquée à la politique, cette technologie devient une version « surchargée » du scandale Cambridge Analytica. Imaginez des systèmes capables de générer des millions de messages, de vidéos et de conversations de chatbot, chacun taillé pour exploiter les peurs et les espoirs d'un électeur spécifique. L'effet le plus profond n'est pas seulement de faire basculer une élection, mais de détruire la notion même de réalité partagée, qui est le socle de tout débat démocratique. Si chaque citoyen reçoit un régime informationnel conçu non pas pour l'informer mais pour le manipuler, la place publique où l'on débat sur des faits communs pourrait cesser d'exister.

La riposte s'organise : entre règles et “tatouage numérique”
Face à cette menace qu'elle a contribué à créer, OpenAI ne reste pas passive. Conscient que les régulations peinent à suivre, l'entreprise a lancé une contre-offensive proactive reposant sur une triple ligne de défense :

Des politiques internes strictes, interdisant la création d'applications pour les campagnes politiques, la simulation de candidats via des chatbots, ou la diffusion de fausses informations sur les modalités de vote.
Des partenariats stratégiques, comme celui noué avec la National Association of Secretaries of State (NASS) aux États-Unis, qui regroupe les plus hauts fonctionnaires électoraux. L'objectif est d'aligner les efforts de détection avec les autorités officielles.
Une solution technologique majeure, la norme C2PA (Coalition for Content Provenance and Authenticity), que l'entreprise a commencé à déployer sur son générateur d'images DALL-E 3.
Le C2PA fonctionne comme un “label nutritionnel” ou un certificat d'authenticité pour le contenu numérique. Portée par une large coalition industrielle incluant Microsoft, Adobe, Intel et Sony, cette norme attache aux fichiers des métadonnées protégées par cryptographie, indiquant leur origine et leur historique de modifications. L'objectif n'est pas de censurer, mais de donner aux utilisateurs, journalistes et chercheurs les moyens de vérifier d'où vient une image ou une vidéo.

Composant Fonction Analogie
Manifeste de Contenu Conteneur de métadonnées qui décrit l'actif numérique et son historique. Le “dossier médical” du fichier.
Signature Cryptographique Sceau numérique qui garantit que les informations du manifeste n'ont pas été altérées. Le “sceau de cire” inviolable.
Icône de Provenance Indicateur visuel (souvent “CR”) sur lequel cliquer pour voir les informations. L'étiquette “Label Rouge”.
Nous sommes au début d'une course aux armements d'un nouveau genre. D'un côté, des IA de persuasion qui évoluent à une vitesse exponentielle. De l'autre, des défenses techniques et politiques qui s'érigent laborieusement. Le véritable goulot d'étranglement n'est peut-être pas technologique, mais sociologique. Les modèles d'IA doublent de puissance en quelques mois, quand l'adoption d'une norme technique prend des années et l'éducation du public une génération. La crainte la plus profonde de Sam Altman n'est pas que l'IA devienne trop intelligente, mais que l'humanité s'avère trop lente à s'adapter à sa propre création.

× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2025/08/ia-persuasion.txt · Dernière modification: 03/08/2025/H09:20:03 (modification externe)