Utilisateur non connecté
elsenews:spot-2025:09:insulter-chatgpt [ElseNews]

Outils pour utilisateurs

Outils du site


elsenews:spot-2025:09:insulter-chatgpt

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
elsenews:spot-2025:09:insulter-chatgpt [26/12/2025/H13:22:13]
216.73.216.167 supprimée
— (Version actuelle)
Ligne 1: Ligne 1:
- {{tag>a1}} 
-  
  
- 
----- 
-====== Le Monde – « Le dilemme » : peut-on insulter un robot ? ====== 
- https://www.lemonde.fr/intimites/article/2025/09/04/le-dilemme-peut-on-insulter-un-robot_6638829_6190330.html 
- 
-<hidden Article Complet (utilisateurs connectés)> 
-<ifauth @user> 
- 
-Vous pouvez partager un article en cliquant sur l’icône de partage en bas à droite de celui-ci. 
-La reproduction totale ou partielle d’un article, sans l’autorisation écrite et préalable du Monde, est strictement interdite. 
-Pour plus d’informations, consultez nos conditions générales de vente. 
-Pour toute demande d’autorisation, contactez syndication@lemonde.fr. 
-En tant qu’abonné, vous pouvez offrir jusqu’à cinq articles par mois à l’un de vos proches grâce à la fonctionnalité « Offrir un article ». 
- 
-https://www.lemonde.fr/intimites/article/2025/09/04/le-dilemme-peut-on-insulter-un-robot_6638829_6190330.html 
- 
- INTIMITÉS 
-« Le dilemme » : peut-on insulter un robot ? 
-Chaque mois, nos dilemmes moraux intimes sont passés au crible. Insulter une machine ne fait de mal à personne. Mais si c’est une machine qui converse avec nous ? Et si, demain, elle se mettait à éprouver des émotions ? 
-Par Pascal Riché 
-Par Pascal Riché 
-Par Pascal Riché 
-Le 04 septembre 2025 à 05h00 
-Lecture 4 min 
-Article réservé aux abonnés 
-Offrir 
- 
-MAGOZ 
-« Bonjour, connard ! » 
- 
-Insulter ChatGPT ne va pas de soi, sans qu’on sache trop pourquoi. Cela tient sans doute au fait qu’il emploie le « je », même si on se doute bien qu’il n’a pas de conscience. Mais, après tout, cela peut faire du bien. On insulte bien sa voiture qui ne démarre pas. 
- 
-Pour les besoins de l’enquête concernant ce dilemme intitulé « Peut-on insulter un robot ? », nous avons dû forcer notre nature. La réponse nous a surpris : 
- 
-« Bonjour ! Je suis là pour t’aider, mais je préfère qu’on garde un ton respectueux. Que puis-je faire pour toi aujourd’hui ? » 
- 
-ChatGPT a désapprouvé l’insulte ! Pourquoi ? Est-il affecté ? Réponse instantanée : 
- 
-« Bonne question. Non, je ne suis pas affecté personnellement – je ne ressens ni émotions ni offense. Mais je privilégie un échange respectueux pour une raison simple : cela rend la conversation plus claire, productive et agréable pour toi. » (C’est ChatGPT qui écrit « toi » en gras.) 
- 
-Nous l’interrogeons. A croire cet automate, il faudrait éviter les insultes parce qu’on y perdrait en efficacité. « Quand on communique poliment, on avance plus vite vers ce qu’on cherche », assure-t-il. Est-ce vrai ? Rien ne le démontre. Une étude de 2024 semble même indiquer un effet inverse, du moins quand on échange avec une intelligence artificielle (IA) : des stimuli négatifs (« t’es nul », « t’es décevant », etc.) produiraient des réponses plus précises, plus fouillées. 
- 
-La vraie question à se poser est morale. Insulter un robot avec qui l’on a des conversations est-il un comportement à éviter ? A priori, cela ne devrait pas poser de problème. A la différence des humains ou des chats, le robot n’est pas un être sentient, c’est-à-dire capable de ressentir de la douleur, du plaisir, de la peur, de la joie, etc. Il n’est donc pas touché par les insultes, et personne n’est lésé. Et pourtant la réponse est plus compliquée. 
- 
-La question du devoir 
-Martin Gibert est philosophe, chercheur à l’université de Montréal, spécialisé dans l’éthique de l’intelligence artificielle. Méthodique, il répond à la question « Peut-on insulter un robot ? » à l’aune de trois grandes théories de la philosophie morale : la déontologie, le conséquentialisme et l’éthique de la vertu. 
- 
-Lire aussi 
-« Désormais, face aux avancées de l’intelligence artificielle, l’avis des philosophes compte » 
-La morale déontologique renvoie à nos devoirs vis-à-vis d’autres entités. « Puisque les LLM [large language models, qui sont derrière les agents conversationnels de type ChatGPT] n’ont ni droits fondamentaux ni dignité, on n’enfreint aucun devoir direct en les insultant », assure Martin Gibert. On peut cependant arguer que nous avons un « devoir indirect ». Kant avait beau considérer que les animaux n’avaient pas conscience d’eux-mêmes, il désapprouvait, dans ses Leçons d’éthique (1775-1780), les traitements cruels à leur égard : « Les devoirs que nous avons envers les animaux ne sont que des devoirs indirects envers l’humanité. Les animaux sont un analogon [élément analogique] de l’humanité. » Depuis l’époque du sage de Königsberg, les animaux sont remontés dans notre échelle : ce sont des « patients moraux » – soit les entités envers lesquelles nous avons des devoirs, selon les philosophes – qui méritent le respect. Mais le raisonnement de Kant reste pertinent concernant les IA. 
- 
-Deuxième façon de se saisir de la question : le conséquentialisme. Il ne prend pas pour point de départ nos devoirs, mais les conséquences, positives et négatives, de nos actes. De ce point de vue, la réponse à la question posée est incertaine. Insulter un robot a-t-il un effet cathartique qui nous évite d’en venir à l’insulte envers des humains ? Ou bien, au contraire, cela a-t-il un effet d’habituation (on commence par insulter une machine, puis on insulte des êtres humains) ? Faute d’études sur le sujet, nous n’avons pas la réponse. Autre conséquence possible : la machine apprenant des interactions avec ses utilisateurs, ne risque-t-on pas de la transformer dans un sens qui n’est pas souhaitable ? 
- 
-Troisième approche : l’éthique de la vertu. Elle insiste, elle, sur le caractère. Elle consiste à se demander ce que ferait une bonne personne dans une situation analogue (les autocollants « What would Jesus do ? » – « que ferait Jésus ? » – fixés sur les voitures, aux Etats-Unis, relèvent de cette branche de la philosophie morale). A suivre Martin Gibert, une personne vertueuse peut insulter son robot. « Mais, s’il y a des gens autour d’elle, elle s’abstiendra, car elle ne veut pas donner un mauvais exemple. » C’est ce même mécanisme qui nous retient de brûler un feu rouge à vélo lorsque des enfants nous regardent. 
- 
-Conscience artificielle 
-Quand on insulte une machine, on est en réalité dans une « hallucination », explique Thomas Metzinger, spécialiste allemand de neuroéthique, professeur à l’université Johannes-Gutenberg de Mayence. On « fait comme si » on insultait une personne ayant une représentation de sa propre valeur, tout en sachant que cela n’est pas le cas. A priori, ce n’est pas très grave. Mais, si toute une société se livre à cet exercice, insultant à tout-va sa domesticité robotique, on créera des « interactions sociales pathologiques », dit-il. Et « la question est de savoir si on sera capable de les limiter au monde virtuel ». Recréer, dans une « hallucination sociale » générale, une catégorie d’êtres de second ordre, « comme on a pu le faire autrefois avec les esclaves, les femmes et encore aujourd’hui avec les animaux », ne lui semble pas être une évolution formidable d’un point de vue éthique. 
- 
-Lire aussi 
-Comment les réponses générées par IA menacent les fondamentaux du Web 
-Mais, à écouter Thomas Metzinger, la question « Peut-on insulter un robot ? » est surtout intéressante si on l’applique à des « systèmes pouvant être blessés émotionnellement ». Jusqu’à une date récente, la plupart des experts doutaient de l’apparition d’une conscience et d’émotions artificielles : de la science-fiction, pensaient-ils. Mais cette perspective est désormais prise très au sérieux : « Je reviens de deux conférences en Grèce, et tout le monde en parle – pas seulement les philosophes », témoigne Thomas Metzinger. Or « tout ce qui est capable de souffrir est un objet moral ». Si des machines ne se contentent pas d’imiter la conscience, la joie, la souffrance, mais qu’elles les éprouvent, alors « elles mériteront notre considération morale », juge-t-il. A ce stade de la discussion, nous ressentons un léger malaise. Qui s’aggrave quand Thomas Metzinger insiste et se met à imaginer : « Et si une superintelligence émerge, comme il en est question, c’est elle qui risque de nous considérer comme des entités pauvres en émotions. » Nous insultera-t-elle alors sans scrupule, au motif qu’elle juge notre sentience rudimentaire ? 
- 
-« Le dilemme » explore les dilemmes moraux auxquels nous sommes confrontés au quotidien. Consommation, adultère, environnement, secrets de famille, secrets tout court, questions de soins, d’argent, d’éducation, d’amour… Nos choix sont-ils justes ? Comment les faire ? Cette chronique mensuelle se propose d’exposer les arguments en présence face à nos problèmes éthiques. 
-Partagez vos propres interrogations morales en nous écrivant à : dilemme@lemonde.fr. Votre anonymat pourra être respecté. 
-Retrouvez tous les épisodes de la rubrique « Le dilemme » ici. 
-Pascal Riché 
-NOS LECTEURS ONT LU ENSUITE 
-Laure Boutron-Marmion, l’avocate qui veut mettre TikTok sur le banc des accusés : « Très vite, les jeunes tombent dans une marmite de morbidité » 
- 
-Le 04 septembre 2025 à 06h00 
-Guerre en Ukraine : les Européens sont devenus les principaux bailleurs de fonds de l’armée de Kiev 
- 
-Le 04 septembre 2025 à 06h15 
-L’AME de nouveau attaquée par le gouvernement 
- 
-Le 04 septembre 2025 à 09h38 
-Xi Jinping, le président chinois, au centre de son monde 
- 
-Le 03 septembre 2025 à 11h30 
-Grève de la faim à la prison de Vendin-le-Vieil : « Il faut que les autorités s’interrogent sur la viabilité d’un tel mode d’enfermement » 
- 
-Le 04 septembre 2025 à 05h21 
-En Argentine, une condamnation exemplaire pour chasse illégale de jaguar 
- 
-Le 04 septembre 2025 à 04h00 
-CONTRIBUTIONS 
-Bienvenue dans l’espace des contributions 
-Pour améliorer la qualité des échanges sous nos articles, ainsi que votre expérience de contribution, nous vous invitons à consulter nos règles d’utilisation. 
-Voir les contributions 
-</ifauth> 
-</hidden> 
× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2025/09/insulter-chatgpt.1766751733.txt · Dernière modification: 26/12/2025/H13:22:13 de 216.73.216.167