25/12/2025/H20:57:14
Le scientifique en chef d'OpenAI craint que l'intelligence artificielle générale (AGI) ne nous traite comme des animaux et ravive les craintes sur un futur où les robots domineront les humains
Lorsquon parle dintelligence artificielle, deux grands courants de pensée saffrontent : celui des tiers qui pensent quil sagit dun outil, ce, sans plus et celui des intervenants et observateurs qui sont davis que ce nest quune question de temps avant quelle ne devienne une menace pour la race humaine. Le scientifique en chef dOpenAI est du deuxième groupe. Il craint que lintelligence artificielle générale ne finisse par traiter les Hommes comme des animaux et ainsi ravive des craintes sur un futur où les robots les domineront.
« Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et lintelligence artificielle générale (AGI) », souligne-t-il dans un documentaire.
On parle dun stade dévolution des machines où elles seront alors dotées de « bon sens. » Au stade dintelligence artificielle générale, elles seraient capables de réflexion causale, cest-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » Cest ce palier que les équipes de recherche dans le domaine visent.
« Certaines préoccupations en matière dintelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'intelligence artificielle. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.
Il y a aussi la possibilité que les IA deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne Bill Gates.
Ce sont des points de vue qui rejoignent ceux de Michael Osborne et Michael Cohen de luniversité dOxford : « Lintelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »
Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une IA qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »
Un débat open source contre systèmes propriétaires se joue désormais en toile de fond
Yann LeCun, responsable de l'IA chez Meta, est l'un des rares éminents chercheurs en IA qui n'épousent pas le discours dominant qui présente l'IA comme une menace existentielle pour l'humanité. Lors d'une récente interview, il a réitéré ses propos selon lesquels « l'IA n'est pas intelligente et est encore plus bête que les chats », ajoutant qu'il est complètement absurde de penser que l'IA pourrait éradiquer l'espèce humaine. Il affirme qu'une réglementation prématurée de l'IA s'avérera un frein pour la recherche et l'innovation dans le domaine, renforcera la domination des grandes entreprises technologiques (OpenAI, Google, etc.) et ne laissera aucune place à la concurrence. Cest la raison pour laquelle il milite pour la transparence en matière de développement de lintelligence artificielle au travers de lopen source.
Au début de l'année, l'entreprise spécialisée en cybersécurité CheckPoint a noté que ChatGPT peut générer le code dun logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant
. L'IA d'OpenAI pouvait également produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge dautres logiciels malveillants à partir de cette dernière. La firme a rapporté en sus que les cybercriminels peuvent sen servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC dune cible. CheckPoint a estimé que ChatGPT ouvrait ces possibilités à des individus avec de très faibles connaissances techniques. Puis OpenAI a amélioré son chatbot IA, lui imposant des limites éthiques et restreignant certaines fonctionnalités. C'était sans compter sur l'ingéniosité de certains intervenants de la sphère qui ont fini par mettre sur pied WormGPT. Cest un chatbot conçu pour aider les cybercriminels à développer des logiciels malveillants. WormGPT représente lentrée en matière des possibilités qui seront accessibles aux cybercriminels au fur et à mesure de lévolution des modèles dintelligence artificielle. Cest la raison pour laquelle la question revient avec acuité sur la table : Faut-il ouvrir le code source et opter pour la transparence totale des mécanismes dentraînement des IA ou opter pour des systèmes fermés pour lesquels les grandes entreprises technologiques prétendent que lavantage sera déviter de mettre de puissants outils entre les mains de monsieur Tout-le-monde ? Cest en réponse à cette question que le scientifique en chef dOpenAI est davis que les grandes entreprises technologiques doivent sabstenir douvrir le code source de leurs intelligences artificielles afin déviter de mettre de puissantes armes entre les mains de tiers malveillants. Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
« Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
Le projet de législation européenne sur l'intelligence artificielle mettrait en péril la compétitivité et la souveraineté technologique de l'Europe, selon plus de 160 dirigeants d'entreprises
Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA
https://intelligence-artificielle.developpez.com/actu/350310/Le-scientifique-en-chef-d-OpenAI-craint-que-l-intelligence-artificielle-generale-AGI-ne-nous-traite-comme-des-animaux-et-ravive-les-craintes-sur-un-futur-ou-les-robots-domineront-les-humains/
you see this when javscript or css is not working correct