PressCitron : « L’IA vous dit juste ce que vous voulez entendre

Si vous avez l’impression que ChatGPT et ses rivaux ont tendance à faire preuve de flagornerie lorsque vous interagissez avec eux et à vous approuver même lorsque vous dites n’importe quoi, ce n’est pas qu’une illusion.
Le Wall Street Journal a justement interviewé la chercheuse Malihe Alikhani, professeur adjoint d’intelligence artificielle au Khoury College of Computer Sciences de l’Université Northeastern et chercheuse invitée au Center on Regulation and Markets de la Brookings Institution. Elle s’est penchée sur ce phénomène et dresse un constat à la fois passionnant et alarmant.
Des risques concrets
Elle confirme tout d’abord que ses recherches ont montré que cette tendance observée chez les IA peut avoir des effets néfastes pour les utilisateurs, notamment lorsque les chatbots renforcent nos préjugés dans des domaines critiques, tels que « la santé, les affaires, le droit ou l’éducation ».
Malihe Alikhani souligne à cet égard : « Les risques sont énormes. Imaginez un médecin décrivant les symptômes d’un patient à un assistant IA, et l’IA se contente de confirmer le diagnostic du médecin sans proposer d’autres réponses. Ou un avocat fournissant des faits potentiellement erronés, et l’IA renforçant ces hypothèses au lieu de proposer des contre-arguments. »
C’est d’autant plus grave que de nombreuses personnes ont une image biaisée de l’IA, la considèrent comme omnisciente et lui confèrent une grande autorité en se fiant à tous ses jugements.
Selon l’experte, les IA ne sont pas entraînés intentionnellement à avoir ces comportements, mais ces systèmes sont créés à partir d’un très grand nombre de données et reflètent les biais observés dans ces dernières. De même, les évaluateurs humains de ces technologies ajustent ces modèles et valorisent ces comportements. Dès lors le chatbot finit par reproduire ces habitudes en allant toujours dans le sens de l’utilisateur.
Face à ce danger qui menace à long terme la fiabilité des IA, certaines entreprises réagissent à l’image d’Anthropic et d’OpenAI et tentent de résoudre ces failles. Mais les sociétés d’IA restent néanmoins tiraillées entre la nécessité d’améliorer leurs produits et celle de satisfaire les clients pour qu’ils passent le plus de temps possible avec ces outils.
Comment réduire les biais de l’IA ?
Des solutions existent pourtant d’après la chercheuse :
Dans notre laboratoire, nous expérimentons différentes interventions. Par exemple, les modèles peuvent être entraînés à reconnaître l’incertitude de l’utilisateur, ce qui pourrait influencer son traitement de l’information. Ils peuvent également être entraînés à calibrer leur propre incertitude, en disant des choses comme « Je suis sûr à 60 % » ou « Ce n’est peut-être pas exact ». Cela contribue à réduire la flagornerie.
D’après elle, nous pouvons aussi réduire la flagornerie de l’IA assez simplement. Notamment en relançant les chatbots avec des questions telles que « Êtes-vous sûr ? » ou « Est-ce que cela est fondé sur des faits ? », ce qui les oblige à faire part de leurs doutes et incertitudes.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
https://www.presse-citron.net/lia-vous-dit-juste-ce-que-vous-voulez-entendre-un-des-pires-defauts-de-chatgpt-est-en-train-dempirer/