Le Monde.fr: « Nous allons perdre le contrôle » : comment les catastrophistes de l’IA haussent le ton https://www.lemonde.fr/pixels/article/2025/09/18/nous-allons-perdre-le-controle-comment-les-catastrophistes-de-l-ia-haussent-le-ton_6641620_4408996.html

https://www.lemonde.fr/pixels/article/2025/09/18/nous-allons-perdre-le-controle-comment-les-catastrophistes-de-l-ia-haussent-le-ton_6641620_4408996.html

Navigation
Retour à la page d’accueil du Monde

JM
PIXELS
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
« Nous allons perdre le contrôle » : comment les catastrophistes de l’IA haussent le ton
Convaincus que l’émergence potentielle d’une superintelligence artificielle mènerait l’humanité à la catastrophe, les « doomers » et leurs alliés, minoritaires dans le secteur de l’IA, veulent se faire entendre.
Par Jules Darmanin

Publié aujourd’hui à 06h30, modifié à 15h56
Temps deLecture 5 min.
Lire dans l’application

Article réservé aux abonnés

SOLÈNE REVENEY/LE MONDE
Niché derrière la gare de King’s Cross, à Londres, Coal Drops Yard est un néoquartier de brique et de verre où se côtoient appartements de luxe et bureaux de géants de la tech, tels que ceux de Google et Meta. Pas vraiment le cœur du Londres contestataire. Pourtant, depuis le week-end du 6 septembre, deux manifestants – un Français et un Néerlandais – ont posé leurs chaises de camping face aux bureaux de DeepMind, le laboratoire d’intelligence artificielle (IA) de Google, sous le regard médusé des agents de sécurité privés du quartier.

Michaël Trazzi et Denys Sheremet font le pied de grue, avec une revendication : « Nous voulons que Demis Hassabis, le PDG de DeepMind, interrompe le développement de ses modèles d’IA les plus avancés, en accord avec les autres entreprises du secteur », explique M. Trazzi, un ancien étudiant de l’école d’informatique 42.

Inspirés par Guido Reichstadter, un militant qui a commencé une grève de la faim devant les locaux d’Anthropic, un autre mastodonte de l’IA, sis à San Francisco (Californie), les deux jeunes hommes ont aussi cessé de se nourrir. M. Trazzi a interrompu sa grève de la faim au bout de sept jours, mais demande toujours un entretien avec M. Hassabis.

Lire aussi le décryptage (2023) | Article réservé à nos abonnés Derrière l’intelligence artificielle, le retour d’utopies technologiques

Pour les deux manifestants, il est urgent d’agir : ils craignent l’avènement d’une « intelligence artificielle générale » (artificial general intelligence, AGI en anglais), qui pourrait se révéler plus capable que l’intelligence humaine et représenterait un péril existentiel pour l’humanité. « Si le développement de l’IA se poursuit à la vitesse actuelle, nous allons perdre le contrôle », estime Denys Sheremet, l’imaginant accaparé par un « acteur malveillant » qui s’en servirait pour développer des armes biologiques ou chimiques – à moins qu’une IA autonome décide d’elle-même de mener des actions destructrices. « Ce qui me parle le plus, ce sont les risques d’extinction », déclare Michaël Trazzi. Par exemple, « qu’une IA puisse créer un virus bien plus puissant que le Covid-19 ».

Sans pour autant répondre aux questions du Monde, un porte-parole de DeepMind nous fait savoir, pour sa part, que « la sûreté, la sécurité et une gouvernance responsable sont, et ont toujours été, des priorités absolues ».

M. Trazzi et M. Sheremet, qui ont tous deux fait des études en intelligence artificielle, sont loin d’être des technophobes réfractaires. Ils s’inscrivent, en réalité, dans le cadre d’un débat houleux, où se mêlent querelles techniques et questions philosophiques, au sujet de l’avenir promis par des modèles accessibles au grand public, tels que Gemini, développé par DeepMind, et ChatGPT, d’OpenAI, le leader du secteur.

Querelles internes
D’un côté de cette controverse se trouvent les « accélérationnistes », qui perçoivent dans l’IA un chemin vers un futur utopique, où chacun aurait accès à une intelligence surpuissante. De l’autre se tiennent les « doomers », qualificatif souvent employé de manière péjorative pour désigner ceux qui estiment possible, voire quasi certain, un scénario apocalyptique causé par une IA dont les capacités dépasseraient l’intelligence humaine.

Devant les bureaux de DeepMind, les deux manifestants rejettent le terme de « doomer ». M. Trazzi préfère se définir comme préoccupé par « la sécurité de l’IA », et se considère comme relativement modéré par rapport à ceux qui prédisent une catastrophe imminente et inévitable.

Paradoxalement, les différentes écoles de pensée s’appuient sur des sources communes. Les travaux de METR, un institut californien qui évalue les grands modèles de langages (Large Language Models, LLM) et leur attribue des capacités devenant exponentielles au fil des ans, représentent autant des arguments marketing pour les grandes entreprises de l’IA que des signaux alarmants pour le camp des pessimistes.

Le livre Superintelligence : Paths, Dangers, Strategies (« Superintelligence : chemins, dangers, stratégies », Oxford University Press, 2014), dans lequel le philosophe suédois Nick Bostrom explore les possibles conséquences de l’apparition d’une intelligence surhumaine, est aussi bien cité comme inspiration par le magnat américain Elon Musk, qui a financé l’institut de Bostrom à Oxford (finalement fermé en 2024), que par Michaël Trazzi, qui y a fait un stage en 2019. « On ne peut pas exclure avec certitude l’apparition d’une superintelligence dans un laps de temps très court, y compris de quelques années », a écrit, dans un e-mail au Monde, Nick Bostrom, qui se dit défavorable à une pause dans la recherche en IA « pour l’instant ».

Lire aussi : Article réservé à nos abonnés « L’affaire Sam Altman a montré que les catastrophistes de l’intelligence artificielle ont perdu une bataille »

Certains observateurs critiques voient dans ces débats les querelles internes à un même landerneau intellectuel. « C’est une vision répandue au sein de la Silicon Valley : si l’on construit l’AGI de la bonne façon, on obtiendra une utopie, et si on le construit de la mauvaise façon, on obtiendra l’annihilation », affirme le philosophe américain Emile Torres, qui a collaboré avec l’ancienne ingénieure de Google Timnit Gebru sur le sujet des racines idéologiques de ce milieu. En faisant découvrir les LLM au grand public, la sortie de ChatGPT a aussi changé la dynamique au sein de cette communauté.

« Le camp “doomer” a pris beaucoup d’ampleur à ce moment-là, explique Emile Torres. Il a ensuite pris un coup lorsque Sam Altman [le patron d’OpenAI] a été licencié, puis remis en place » – un putsch raté qui, en novembre 2023, a été analysé comme une défaite cuisante pour le camp catastrophiste. Du point de vue technique, Emile Torres se range, pour sa part, derrière Gary Marcus, tête de file des sceptiques des LLM, qui déplorent les hallucinations encore nombreuses de ces systèmes d’IA.

Impact sur le marché du travail
D’autres chercheurs en informatique, tels que Arvind Narayanan et Sayash Kapoor, de l’université américaine de Princeton, défendent, quant à eux, une conception de l’IA comme une « technologie normale ». Ils s’opposent aux visions « utopiques comme dystopiques » partagées autant par les PDG de l’IA que par ceux qui manifestent devant leurs bureaux. « Décrire le progrès de l’IA comme exponentiel est gravement trompeur », juge M. Narayanan.

« Dans un ensemble restreint de tâches, comme les mathématiques ou le développement informatique, ses capacités ont rapidement progressé. Mais, lorsque ces systèmes doivent composer avec le désordre complexe du monde réel, même pour quelque chose d’aussi simple pour nous que le shopping en ligne, la progression a été bien plus lente qu’espéré », observe-t-il.

Toutefois, alors que l’impact de l’IA commence à transparaître dans les écoles comme sur le marché du travail, le camp pessimiste semble regagner du terrain sur la scène publique. Mardi 16 septembre est sorti aux Etats-Unis un livre au titre catastrophiste : If Anyone Builds It, Everyone Dies : Why Superhuman AI Would Kill Us All (« Si quelqu’un la construit, tout le monde meurt – Pourquoi une IA superintelligente nous tuerait tous », Little, Brown and Company, non traduit). Son coauteur, Eliezer Yudkowsky, est l’un des pionniers de la tendance « doomer » et fait, à cette occasion, l’objet d’un portrait dans le New York Times après avoir sonné le tocsin pendant plus de dix ans.

Alors que, sur le réseau social X, ils sont raillés par le camp accélérationniste, M. Trazzi et M. Sheremet suscitent davantage de sympathie devant les bureaux de DeepMind. « C’est super, ce que vous faites », leur a lancé un agent de sécurité de Sony, l’entreprise voisine, alors qu’il les prenait en photo pour informer sa hiérarchie. « Personne ne veut de cette IA. »

Lire aussi | Article réservé à nos abonnés Deux Prix Nobel symboles du poids de Google DeepMind dans l’intelligence artificielle

Quelques employés de Meta, dont les bureaux se trouvent à l’angle de la rue, ont apporté des bouteilles d’eau en guise de soutien. Jeudi 11 septembre, David Silver, l’un des ingénieurs vedettes de DeepMind, s’est adressé aux deux manifestants. Il a ensuite dit à M. Trazzi avoir transmis son e-mail à Demis Hassabis. Pour l’instant, le PDG de DeepMind reste mutique.

Jules Darmanin

SUIVEZ LE MONDE

Facebook
Youtube
Instagram
Snapchat
TikTok
Fils RSS