« Le développement de la superintelligence est désormais à portée de main […] Dans les années à venir, l’IA améliorera tous nos systèmes existants et permettra la création et la découverte de nouvelles choses inimaginables aujourd’hui. » La citation est signée Mark Zuckerberg. On la trouve en lettres noires sur fond blanc, élégante police Times New Roman (c’est assez rare pour être souligné), tout en haut d’une courte lettre publiée le 30 juillet dernier sur le site officiel du groupe Meta. Objectif : définir les contours de la « vision » du géant américain à propos de ce qui est ici qualifié de « nouvelle ère pour l’humanité ».
« Je suis extrêmement optimiste quant au fait que la superintelligence aidera l’humanité à accélérer son progrès, poursuit le patron de Facebook, Instagram, WhatsApp et consorts. Mais, peut-être plus important encore, [elle] a le potentiel d’ouvrir une nouvelle ère d’autonomisation […] où chacun aura davantage de pouvoir pour améliorer le monde. » D’où son intérêt, assure-t-il, à ce que ladite « superintelligence » – qu’il n’a, à ce stade, toujours pas définie – soit rendue « personnelle » et « accessible à tous ».
Un mythe réactualisé
De Sam Altman à Elon Musk en passant par Bill Gates, la notion de « superintelligence » s’est, de fait, répandue comme une traînée de poudre ces derniers mois dans la bouche des figures les plus médiatiques de la Silicon Valley. La plupart du temps, il s’agit d’annoncer son avènement, pas encore tout à fait là mais « imminent », auquel nos sociétés devraient donc se préparer dès maintenant. « La technologie nous a fait passer de l’âge de pierre à l’ère agricole, puis à l’ère industrielle. Le chemin vers cette [nouvelle] ère sera pavé de calculs, d’énergie et de volonté humaine », prédisait ainsi avec grandiloquence Sam Altman sur son blog personnel, en septembre 2024.
Même chez les voix les plus technocritiques, le terme semble trouver un certain écho. Pionnier de l’apprentissage profond et directeur scientifique du MILA, l’Institut en intelligence artificielle (IA) de Montréal, Yoshua Bengio mettait en garde en 2023 contre « une IA superintelligente […] potentiellement malveillante si ses objectifs n’incluent pas le bien-être de l’humanité et de la biosphère ». Quand son confrère Eliezer Yudkowsky, essayiste star et promoteur du concept d’intelligence artificielle « amicale », allait jusqu’à balancer un mois plus tôt, en pleine conférence TED : « [Avec une IA superintelligente], nous ne pourrons plus apprendre de nos erreurs et corriger le tir, parce que tout le monde sera déjà mort. »
Pour comprendre ce qui se cache derrière ce terme, il faut revenir brièvement sur sa généalogie. Ce qui implique de remonter… jusqu’aux années 1950 : à l’époque, le mathématicien Stanislaw Ulam, l’un des pères de la bombe atomique, rapporte, dans un hommage à son confrère John von Neuman, une conversation autour de leur crainte partagée vis-à-vis de « l’accélération constante du progrès technologique, [qui] semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce ». Soit un seuil où ce même progrès deviendrait incontrôlable et irréversible, au point de bouleverser le cours de l’histoire humaine. Le « mythe de la singularité », comme le surnomme l’informaticien et philosophe français Jean-Gabriel Ganascia dans l’un de ses essais (Le Mythe de la Singularité, éditions du Seuil, 2017), est né.
Et il ne s’arrête pas là. Ulam et von Neuman sont en effet bientôt rejoints par un certain John Irving Good, qui théorise dès 1965 le concept de machines « ultra » intelligentes. Soit des systèmes « capables de surpasser de loin toutes les activités intellectuelles de tout être humain »… du fait de leur capacité à engendrer elles-mêmes d’autres machines. La prophétie a beau paraître lointaine, la mayonnaise prend. « Une machine ultra-intelligente pourrait concevoir des machines encore meilleures, médite ainsi John Irving Good. Il y aurait alors incontestablement une “explosion de l’intelligence”, et l’intelligence humaine serait largement dépassée », que ce soit en matière de santé (traitements contre les cancers, organes synthétiques…) ou de défense (armes bactériologiques, robots autonomes…). Avant de prédire carrément : « Ainsi, la première machine ultra-intelligente sera la dernière invention que l’homme aura jamais besoin de réaliser. »
Une rhétorique déclinée et actualisée par les apôtres de cette fameuse « singularité », progressivement rebaptisée « superintelligence » à mesure que les œuvres de science-fiction rongent le filon jusqu’à l’os. Qu’importe si elle est « absolument dénuée de sens d’un point de vue scientifique », comme le soupire depuis l’autre côté de la Manche Wendy Hall, informaticienne de renom et professeure à l’université de Southampton : au XXIème siècle, Nick Bostrom entend renouveler l’exercice avec son livre Superintelligence (éditions Dunod, traduction de Françoise Parot, 2017). Celui qui est alors dirigeant du feu Institut pour le Futur de l’Humanité (dissous en 2024 par l’université d’Oxford) y esquisse l’avènement de cet « intellect qui excède[ra] largement les performances cognitives des êtres humains dans tous les domaines possibles ».
Des justifications trompeuses
Pour Bostrom, une telle « superintelligence » prendrait « trois formes » distinctes mais « pratiquement équivalentes » : la « superintelligence rapide » (capable de faire plus vite que le cerveau humain) ; la « superintelligence collective » (capable de faire mieux que le cerveau humain « dans des domaines généraux divers ») ; et enfin la « superintelligence qualitative » (« tout système […] qui réfléchit bien mieux » que l’humain). « Nous n’avons qu’une petite idée de la détonation qui se produira », promet avec emphase Bostrom dans son ouvrage. Par rapport aux spéculations passées, « la nouveauté est que Bostrom prétend mobiliser un discours rationnel, qui doit conduire son lecteur à s’inquiéter », commente Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université et membre senior de l’Institut Universitaire de France.
« La loi de Moore est une loi sur l’électronique, pas sur les logiciels d’IA »
Wendy Hall, informaticienne britannique, professeure à l'université de Southampton
Pour justifier leur raisonnement, Kurzweil comme Bostrom ne s’appuient pourtant sur pas grand chose d’autre que la loi de Moore, qui stipula, au mitan des années 1960, que la puissance des processeurs informatiques suivrait une évolution exponentielle à travers le temps. Or non seulement cette « loi » n’est aujourd’hui plus d’actualité (en raison de limites aussi bien physiques que techniques, ce qui poussa les géants du secteur à « officiellement l’abandonner » en 2016), mais son applicabilité au domaine de l’intelligence artificielle n’est en rien démontrée. « C’est une loi sur l’électronique, pas sur les logiciels d’IA. L’idée qu’il existerait un équivalent en la matière n’a jamais été prouvée », clarifie Wendy Hall.
« En matière de réseaux neuronaux, certains parlent plutôt de loi d’échelle (scaling law en anglais, ndlr) pour désigner l’idée que les performances des modèles s’améliorent avec l’augmentation des données d’entraînement », prolonge Kristian Kersting, professeur d’intelligence artificielle à l’université de technologie de Darmstadt, en Allemagne, et responsable du laboratoire Intelligence Artificielle et Apprentissage Automatique (AIML). Mais là encore, en l’absence de démonstration scientifique, il s’agit « plutôt d’un point de controverse », à l’instar des déceptions engendrées par les dernières versions de ChatGPT.
Des limites que Nick Bostrom et ses contemporains (dont le petit groupe « AI 2027 », composé notamment d’anciens d’OpenAI), semblent tout bonnement choisir d’ignorer. Leur argument consiste à dire que le développement actuel des intelligences artificielles suivra quoi qu’il arrive une courbe ascendante, qui débouchera dans un premier temps sur une « intelligence artificielle générale », dite « IAG », censée « égaler » toutes les capacités du cerveau humain ; puis sur cette fameuse « superintelligence », donc, « surpassant » carrément l’humain.
Une distinction validée pour moitié par Wendy Hall : « Autant je n’emploie jamais la notion de superintelligence, autant celle d’IAG me paraît plus claire : il s’agirait d’une IA capable de transferts de connaissances inédits, qui n’aurait pas besoin de formation spécialisée dans la cybersécurité ou la santé, par opposition aux IA actuelles utilisées dans ces secteurs, par exemple. C’est un stade très difficile à atteindre, encore très hypothétique, mais qui peut sérieusement s’envisager, contrairement à la soi-disant “superintelligence”. » Méfiant vis-à-vis des deux terminologies, Kristian Kersting estime de son côté dommageable de prendre « l’intelligence humaine pour référentiel », alors que les systèmes d’IA « sont très performants à leur manière (la statistique, le calcul…), qui est très différente de la nôtre ».
L’intelligence, concept « conditionnel »
Cette timeline simplifiée en deux parties semble provenir du livre Humanité 2.0 (éditions M21, traduction de Adeline Mesmin, 2007), dans lequel le futurologue et serial entrepreneur Ray Kurzweil se risque à ces deux prédictions distinctes : l’« intelligence artificielle générale » arrivera d’ici 2029 ; et la « singularité » (« c’est-à-dire lorsque les humains multiplieront leur intelligence effective par un milliard » en fusionnant avec l’intelligence artificielle) d’ici 2045. Pari là encore hasardeux, puisque Kurzweil part du principe qu’une IA passant le test de Turing – test qui consiste à mettre en communication, à l’aveugle, un être humain et un ordinateur afin de vérifier s’ils sont capables d’atteindre les mêmes niveaux de performance – suffirait à être considérée « générale ».
Or, à ce compte-là, comme le répètent nombre de scientifiques depuis, un chatbot imitant parfaitement le langage humain (comme ChatGPT) suffirait à être considéré comme « général », peu importe ses compétences concrètes. En mars dernier, dans un article en prépublication (non-relu par les pairs), des chercheurs de l’université de Californie à San Diego prenaient à bras le corps le défi : avec la consigne de se faire passer pour un humain dans le cadre dudit test de Turing, le modèle GPT-4.5 d’OpenAI était considéré comme tel dans 73 % des cas, alors même que ses « capacités » ne surpassaient en rien celles, « générales », d’un être humain. « Et on ne parle là que des chatbots, soit des moteurs de recherche améliorés, alors que les IA recoupent tout un éventail de technologies, pas seulement l’IA générative », rappelle Wendy Hall.
Pour l’informaticien Jean-Gabriel Ganascia, l’emballement repose de toute façon sur un malentendu autour de la notion d’intelligence elle-même. « L’intelligence est un concept conditionnel, opératoire, qui a plusieurs significations selon les domaines considérés. Elle ne peut se résumer à quantifier des facultés mentales plus ou moins poussées. Aujourd’hui, par exemple, on sait que les animaux ont certaines capacités cognitives plus développées que nous, que ce soit en termes de perception ou d’agilité. Et les machines font des multiplications mieux que nous depuis très longtemps », resitue-t-il.
Même son de cloche chez l’ingénieur François Chollet, notamment connu pour avoir développé la bibliothèque de deep learning Keras (utilisée pour l’expérimentation rapide avec les réseaux de neurones), pour qui le simple fait d’accroître la « puissance cérébrale » informatique serait peu susceptible de conduire à une quelconque « superintelligence ». « Une IA dotée d’un cerveau surhumain qui serait implantée dans un corps humain dans notre monde moderne ne développerait probablement pas de capacités supérieures à celles d’un humain intelligent contemporain, clarifie-t-il dans l’un de ses textes de vulgarisation. Si c’était le cas, des humains dotés d’un QI exceptionnellement élevé […] atteindraient déjà un niveau de contrôle exceptionnel sur leur environnement, et résoudraient des problèmes majeurs en suspens, ce qui n’est pas le cas. »
« Les progrès futurs de l’IA n’auront rien de cataclysmique »
Jean-Gabriel Ganascia, informaticien et philosophe français
De même, poursuit-il, si le cerveau humain est sans doute « supérieur à celui d’une pieuvre » en termes de capacité de calcul, un cerveau humain transplanté dans le corps d’une pieuvre « échouerait probablement lamentablement en raison de son manque d’adaptation » à ce nouveau contexte. Une prudence méthodologique qui n’est pas celle de Nick Bostrom, ce dernier assurant que ce sont bien « les capacités du cerveau humain », « que les autres espèces n’ont pas », qui permettent d’asseoir « notre domination » sur la planète. « Les autres animaux ont une musculature plus puissante, des griffes plus acérées, mais nos cerveaux sont plus intelligents », énonce-t-il sans citer de références précises, ni questionner son propre usage de la notion de « progrès », maintes fois convoquée au fil de son ouvrage.
Risque de bulle financière
Car c’est bien pour « faire progresser » l’espèce humaine que les autoproclamés « pionniers » de la « superintelligence » assurent vouloir s’emparer du sujet dès maintenant. C’est tout le paradoxe du secteur, démontré, entre autres, par l’auteur et journaliste Thibault Prévost (contributeur régulier à Usbek & Rica) dans son livre Les Prophètes de l’IA (éditions Lux, 2024) : martelant que l’« IApocalypse » est proche tout en vantant les mérites d’une IA censée contribuer au « bien commun », les géants de la tech ménagent in fine la chèvre et le chou pour attirer des capitaux toujours plus importants. Le seul moyen de « contrôler » la puissance de ladite « superintelligence » serait ainsi de leur en laisser tenir les rênes.
Tout en plaidant pour des collaborations étroites avec le secteur privé, « nécessaire » pour faire avancer la recherche, Kristian Kersting n’a ainsi pas peur de parler d’« arnaque » et de « coup marketing » quand on lui demande de désigner frontalement la superintelligence. « Ces entreprises ont besoin de prouver qu’elles sont spéciales, qu’elles sont meilleures, et de faire en sorte que leurs salariés soient motivés. On en arrive à un raisonnement tautologique : elles doivent faire advenir la superintelligence parce que les investissements en ce sens les condamnent à suivre cette voie, à la rentabiliser. » Que cette dernière stagne ou se concrétise : « Pour eux, c’est une stratégie gagnant-gagnant : soit ils arrivent à créer cette “superintelligence” – ce qui, selon moi, n’arrivera pas – et ils passent pour des pionniers ; soit ils continuent à mettre en garde la société, et ils passent pour des gens bien. »
Extrait du film Terminator © 20th Century Fox
« Le plus effrayant est qu’il n’y a aucune régulation : toutes ces entreprises n’ont pas besoin de fournir la moindre preuve pour étayer leurs affirmations », pointe Wendy Hall. En témoignent notamment les investissements récents et massifs de Meta dans de nouveaux « superclusters » censés nourrir ces recherches, avec à la clé un plan d’investissements de 14,3 milliards de dollars et des débauchages à la pelle chez les concurrents à coups de primes et de salaires mirobolants. Au risque de la contradiction interne, par exemple lorsque le Français Yann LeCun, directeur scientifique de l’IA de Meta, affirme que les IA ne pourront « même pas atteindre une intelligence équivalente à celle des chats » dans un futur proche, loin des ambitieuses proclamations de Mark Zuckerberg.
D’où, sans doute, cette crainte de plus en plus partagée d’un risque de bulle spéculative sur le point d’éclater, renforcée notamment par cette étude, publiée cet été par le MIT (Massachusetts Institute of Technology), qui montre que seuls 5 % des projets d’entreprise pilotés par des modèles d’intelligence artificielle donnent lieu à une accélération significative des revenus de l’entreprise. Une fois retombé l’emballement autour de la superintelligence en particulier, et de l’IA en général, « il est donc très probable qu’on assiste à un krach économique », corrobore Wendy Hall.
Quant à savoir ce que pourraient réellement réserver les IA du futur, Jean-Gabriel Ganascia ne se risque qu’à quelques prédictions modérées, de la généralisation des voitures dites « autonomes » (qu’il faudrait plutôt appeler « automatiques » selon lui, histoire de se débarrasser pour de bon de l’idée d’agentivité « magique ») aux technologies de réalité augmentée disponibles sur les smartphones, montres et lunettes connectées. « Tout cela peut avoir un effet important sur la vie de tous les jours, mais ça n’aura rien de cataclysmique », rassure-t-il.
Se défendant de tout « pessimisme », Wendy Hall estime quant à elle que les futures découvertes permises par les capacités d’analyse de données des IA du futur « vont être incroyables ». « Elles vont nous aider à faire toutes sortes de choses que nous ne pouvions pas faire auparavant, notamment en science, mais cela ne fera pas d’elles des êtres “superintelligents” », répète-t-elle. Au passage, la chercheuse britannique prédit d’ailleurs qu’elle n’assistera pas non plus à l’avènement d’une hypothétique intelligence artificielle générale (IAG) de son vivant. Sachant qu’à 73 ans, elle compte bien « vivre encore deux décennies ».
https://usbeketrica.com/fr/article/ia-la-superintelligence-est-elle-une-super-arnaque
« Le développement de la superintelligence est désormais à portée de main […] Dans les années à venir, l’IA améliorera tous nos systèmes existants et permettra la création et la découverte de nouvelles choses inimaginables aujourd’hui. » La citation est signée Mark Zuckerberg. On la trouve en lettres noires sur fond blanc, élégante police Times New Roman (c’est assez rare pour être souligné), tout en haut d’une courte lettre publiée le 30 juillet dernier sur le site officiel du groupe Meta. Objectif : définir les contours de la « vision » du géant américain à propos de ce qui est ici qualifié de « nouvelle ère pour l’humanité ».
« Je suis extrêmement optimiste quant au fait que la superintelligence aidera l’humanité à accélérer son progrès, poursuit le patron de Facebook, Instagram, WhatsApp et consorts. Mais, peut-être plus important encore, [elle] a le potentiel d’ouvrir une nouvelle ère d’autonomisation […] où chacun aura davantage de pouvoir pour améliorer le monde. » D’où son intérêt, assure-t-il, à ce que ladite « superintelligence » – qu’il n’a, à ce stade, toujours pas définie – soit rendue « personnelle » et « accessible à tous ».
Un mythe réactualisé
De Sam Altman à Elon Musk en passant par Bill Gates, la notion de « superintelligence » s’est, de fait, répandue comme une traînée de poudre ces derniers mois dans la bouche des figures les plus médiatiques de la Silicon Valley. La plupart du temps, il s’agit d’annoncer son avènement, pas encore tout à fait là mais « imminent », auquel nos sociétés devraient donc se préparer dès maintenant. « La technologie nous a fait passer de l’âge de pierre à l’ère agricole, puis à l’ère industrielle. Le chemin vers cette [nouvelle] ère sera pavé de calculs, d’énergie et de volonté humaine », prédisait ainsi avec grandiloquence Sam Altman sur son blog personnel, en septembre 2024.
Même chez les voix les plus technocritiques, le terme semble trouver un certain écho. Pionnier de l’apprentissage profond et directeur scientifique du MILA, l’Institut en intelligence artificielle (IA) de Montréal, Yoshua Bengio mettait en garde en 2023 contre « une IA superintelligente […] potentiellement malveillante si ses objectifs n’incluent pas le bien-être de l’humanité et de la biosphère ». Quand son confrère Eliezer Yudkowsky, essayiste star et promoteur du concept d’intelligence artificielle « amicale », allait jusqu’à balancer un mois plus tôt, en pleine conférence TED : « [Avec une IA superintelligente], nous ne pourrons plus apprendre de nos erreurs et corriger le tir, parce que tout le monde sera déjà mort. »
Pour comprendre ce qui se cache derrière ce terme, il faut revenir brièvement sur sa généalogie. Ce qui implique de remonter… jusqu’aux années 1950 : à l’époque, le mathématicien Stanislaw Ulam, l’un des pères de la bombe atomique, rapporte, dans un hommage à son confrère John von Neuman, une conversation autour de leur crainte partagée vis-à-vis de « l’accélération constante du progrès technologique, [qui] semble nous rapprocher d’une singularité fondamentale de l’histoire de l’évolution de l’espèce ». Soit un seuil où ce même progrès deviendrait incontrôlable et irréversible, au point de bouleverser le cours de l’histoire humaine. Le « mythe de la singularité », comme le surnomme l’informaticien et philosophe français Jean-Gabriel Ganascia dans l’un de ses essais (Le Mythe de la Singularité, éditions du Seuil, 2017), est né.
Et il ne s’arrête pas là. Ulam et von Neuman sont en effet bientôt rejoints par un certain John Irving Good, qui théorise dès 1965 le concept de machines « ultra » intelligentes. Soit des systèmes « capables de surpasser de loin toutes les activités intellectuelles de tout être humain »… du fait de leur capacité à engendrer elles-mêmes d’autres machines. La prophétie a beau paraître lointaine, la mayonnaise prend. « Une machine ultra-intelligente pourrait concevoir des machines encore meilleures, médite ainsi John Irving Good. Il y aurait alors incontestablement une “explosion de l’intelligence”, et l’intelligence humaine serait largement dépassée », que ce soit en matière de santé (traitements contre les cancers, organes synthétiques…) ou de défense (armes bactériologiques, robots autonomes…). Avant de prédire carrément : « Ainsi, la première machine ultra-intelligente sera la dernière invention que l’homme aura jamais besoin de réaliser. »
Une rhétorique déclinée et actualisée par les apôtres de cette fameuse « singularité », progressivement rebaptisée « superintelligence » à mesure que les œuvres de science-fiction rongent le filon jusqu’à l’os. Qu’importe si elle est « absolument dénuée de sens d’un point de vue scientifique », comme le soupire depuis l’autre côté de la Manche Wendy Hall, informaticienne de renom et professeure à l’université de Southampton : au XXIème siècle, Nick Bostrom entend renouveler l’exercice avec son livre Superintelligence (éditions Dunod, traduction de Françoise Parot, 2017). Celui qui est alors dirigeant du feu Institut pour le Futur de l’Humanité (dissous en 2024 par l’université d’Oxford) y esquisse l’avènement de cet « intellect qui excède[ra] largement les performances cognitives des êtres humains dans tous les domaines possibles ».
Des justifications trompeuses
Pour Bostrom, une telle « superintelligence » prendrait « trois formes » distinctes mais « pratiquement équivalentes » : la « superintelligence rapide » (capable de faire plus vite que le cerveau humain) ; la « superintelligence collective » (capable de faire mieux que le cerveau humain « dans des domaines généraux divers ») ; et enfin la « superintelligence qualitative » (« tout système […] qui réfléchit bien mieux » que l’humain). « Nous n’avons qu’une petite idée de la détonation qui se produira », promet avec emphase Bostrom dans son ouvrage. Par rapport aux spéculations passées, « la nouveauté est que Bostrom prétend mobiliser un discours rationnel, qui doit conduire son lecteur à s’inquiéter », commente Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université et membre senior de l’Institut Universitaire de France.
« La loi de Moore est une loi sur l’électronique, pas sur les logiciels d’IA »
Wendy Hall, informaticienne britannique, professeure à l'université de Southampton
Pour justifier leur raisonnement, Kurzweil comme Bostrom ne s’appuient pourtant sur pas grand chose d’autre que la loi de Moore, qui stipula, au mitan des années 1960, que la puissance des processeurs informatiques suivrait une évolution exponentielle à travers le temps. Or non seulement cette « loi » n’est aujourd’hui plus d’actualité (en raison de limites aussi bien physiques que techniques, ce qui poussa les géants du secteur à « officiellement l’abandonner » en 2016), mais son applicabilité au domaine de l’intelligence artificielle n’est en rien démontrée. « C’est une loi sur l’électronique, pas sur les logiciels d’IA. L’idée qu’il existerait un équivalent en la matière n’a jamais été prouvée », clarifie Wendy Hall.
« En matière de réseaux neuronaux, certains parlent plutôt de loi d’échelle (scaling law en anglais, ndlr) pour désigner l’idée que les performances des modèles s’améliorent avec l’augmentation des données d’entraînement », prolonge Kristian Kersting, professeur d’intelligence artificielle à l’université de technologie de Darmstadt, en Allemagne, et responsable du laboratoire Intelligence Artificielle et Apprentissage Automatique (AIML). Mais là encore, en l’absence de démonstration scientifique, il s’agit « plutôt d’un point de controverse », à l’instar des déceptions engendrées par les dernières versions de ChatGPT.
Des limites que Nick Bostrom et ses contemporains (dont le petit groupe « AI 2027 », composé notamment d’anciens d’OpenAI), semblent tout bonnement choisir d’ignorer. Leur argument consiste à dire que le développement actuel des intelligences artificielles suivra quoi qu’il arrive une courbe ascendante, qui débouchera dans un premier temps sur une « intelligence artificielle générale », dite « IAG », censée « égaler » toutes les capacités du cerveau humain ; puis sur cette fameuse « superintelligence », donc, « surpassant » carrément l’humain.
Une distinction validée pour moitié par Wendy Hall : « Autant je n’emploie jamais la notion de superintelligence, autant celle d’IAG me paraît plus claire : il s’agirait d’une IA capable de transferts de connaissances inédits, qui n’aurait pas besoin de formation spécialisée dans la cybersécurité ou la santé, par opposition aux IA actuelles utilisées dans ces secteurs, par exemple. C’est un stade très difficile à atteindre, encore très hypothétique, mais qui peut sérieusement s’envisager, contrairement à la soi-disant “superintelligence”. » Méfiant vis-à-vis des deux terminologies, Kristian Kersting estime de son côté dommageable de prendre « l’intelligence humaine pour référentiel », alors que les systèmes d’IA « sont très performants à leur manière (la statistique, le calcul…), qui est très différente de la nôtre ».
L’intelligence, concept « conditionnel »
Cette timeline simplifiée en deux parties semble provenir du livre Humanité 2.0 (éditions M21, traduction de Adeline Mesmin, 2007), dans lequel le futurologue et serial entrepreneur Ray Kurzweil se risque à ces deux prédictions distinctes : l’« intelligence artificielle générale » arrivera d’ici 2029 ; et la « singularité » (« c’est-à-dire lorsque les humains multiplieront leur intelligence effective par un milliard » en fusionnant avec l’intelligence artificielle) d’ici 2045. Pari là encore hasardeux, puisque Kurzweil part du principe qu’une IA passant le test de Turing – test qui consiste à mettre en communication, à l’aveugle, un être humain et un ordinateur afin de vérifier s’ils sont capables d’atteindre les mêmes niveaux de performance – suffirait à être considérée « générale ».
Or, à ce compte-là, comme le répètent nombre de scientifiques depuis, un chatbot imitant parfaitement le langage humain (comme ChatGPT) suffirait à être considéré comme « général », peu importe ses compétences concrètes. En mars dernier, dans un article en prépublication (non-relu par les pairs), des chercheurs de l’université de Californie à San Diego prenaient à bras le corps le défi : avec la consigne de se faire passer pour un humain dans le cadre dudit test de Turing, le modèle GPT-4.5 d’OpenAI était considéré comme tel dans 73 % des cas, alors même que ses « capacités » ne surpassaient en rien celles, « générales », d’un être humain. « Et on ne parle là que des chatbots, soit des moteurs de recherche améliorés, alors que les IA recoupent tout un éventail de technologies, pas seulement l’IA générative », rappelle Wendy Hall.
Pour l’informaticien Jean-Gabriel Ganascia, l’emballement repose de toute façon sur un malentendu autour de la notion d’intelligence elle-même. « L’intelligence est un concept conditionnel, opératoire, qui a plusieurs significations selon les domaines considérés. Elle ne peut se résumer à quantifier des facultés mentales plus ou moins poussées. Aujourd’hui, par exemple, on sait que les animaux ont certaines capacités cognitives plus développées que nous, que ce soit en termes de perception ou d’agilité. Et les machines font des multiplications mieux que nous depuis très longtemps », resitue-t-il.
Même son de cloche chez l’ingénieur François Chollet, notamment connu pour avoir développé la bibliothèque de deep learning Keras (utilisée pour l’expérimentation rapide avec les réseaux de neurones), pour qui le simple fait d’accroître la « puissance cérébrale » informatique serait peu susceptible de conduire à une quelconque « superintelligence ». « Une IA dotée d’un cerveau surhumain qui serait implantée dans un corps humain dans notre monde moderne ne développerait probablement pas de capacités supérieures à celles d’un humain intelligent contemporain, clarifie-t-il dans l’un de ses textes de vulgarisation. Si c’était le cas, des humains dotés d’un QI exceptionnellement élevé […] atteindraient déjà un niveau de contrôle exceptionnel sur leur environnement, et résoudraient des problèmes majeurs en suspens, ce qui n’est pas le cas. »
« Les progrès futurs de l’IA n’auront rien de cataclysmique »
Jean-Gabriel Ganascia, informaticien et philosophe français
De même, poursuit-il, si le cerveau humain est sans doute « supérieur à celui d’une pieuvre » en termes de capacité de calcul, un cerveau humain transplanté dans le corps d’une pieuvre « échouerait probablement lamentablement en raison de son manque d’adaptation » à ce nouveau contexte. Une prudence méthodologique qui n’est pas celle de Nick Bostrom, ce dernier assurant que ce sont bien « les capacités du cerveau humain », « que les autres espèces n’ont pas », qui permettent d’asseoir « notre domination » sur la planète. « Les autres animaux ont une musculature plus puissante, des griffes plus acérées, mais nos cerveaux sont plus intelligents », énonce-t-il sans citer de références précises, ni questionner son propre usage de la notion de « progrès », maintes fois convoquée au fil de son ouvrage.
Risque de bulle financière
Car c’est bien pour « faire progresser » l’espèce humaine que les autoproclamés « pionniers » de la « superintelligence » assurent vouloir s’emparer du sujet dès maintenant. C’est tout le paradoxe du secteur, démontré, entre autres, par l’auteur et journaliste Thibault Prévost (contributeur régulier à Usbek & Rica) dans son livre Les Prophètes de l’IA (éditions Lux, 2024) : martelant que l’« IApocalypse » est proche tout en vantant les mérites d’une IA censée contribuer au « bien commun », les géants de la tech ménagent in fine la chèvre et le chou pour attirer des capitaux toujours plus importants. Le seul moyen de « contrôler » la puissance de ladite « superintelligence » serait ainsi de leur en laisser tenir les rênes.
Tout en plaidant pour des collaborations étroites avec le secteur privé, « nécessaire » pour faire avancer la recherche, Kristian Kersting n’a ainsi pas peur de parler d’« arnaque » et de « coup marketing » quand on lui demande de désigner frontalement la superintelligence. « Ces entreprises ont besoin de prouver qu’elles sont spéciales, qu’elles sont meilleures, et de faire en sorte que leurs salariés soient motivés. On en arrive à un raisonnement tautologique : elles doivent faire advenir la superintelligence parce que les investissements en ce sens les condamnent à suivre cette voie, à la rentabiliser. » Que cette dernière stagne ou se concrétise : « Pour eux, c’est une stratégie gagnant-gagnant : soit ils arrivent à créer cette “superintelligence” – ce qui, selon moi, n’arrivera pas – et ils passent pour des pionniers ; soit ils continuent à mettre en garde la société, et ils passent pour des gens bien. »
Extrait du film Terminator © 20th Century Fox
« Le plus effrayant est qu’il n’y a aucune régulation : toutes ces entreprises n’ont pas besoin de fournir la moindre preuve pour étayer leurs affirmations », pointe Wendy Hall. En témoignent notamment les investissements récents et massifs de Meta dans de nouveaux « superclusters » censés nourrir ces recherches, avec à la clé un plan d’investissements de 14,3 milliards de dollars et des débauchages à la pelle chez les concurrents à coups de primes et de salaires mirobolants. Au risque de la contradiction interne, par exemple lorsque le Français Yann LeCun, directeur scientifique de l’IA de Meta, affirme que les IA ne pourront « même pas atteindre une intelligence équivalente à celle des chats » dans un futur proche, loin des ambitieuses proclamations de Mark Zuckerberg.
D’où, sans doute, cette crainte de plus en plus partagée d’un risque de bulle spéculative sur le point d’éclater, renforcée notamment par cette étude, publiée cet été par le MIT (Massachusetts Institute of Technology), qui montre que seuls 5 % des projets d’entreprise pilotés par des modèles d’intelligence artificielle donnent lieu à une accélération significative des revenus de l’entreprise. Une fois retombé l’emballement autour de la superintelligence en particulier, et de l’IA en général, « il est donc très probable qu’on assiste à un krach économique », corrobore Wendy Hall.
Quant à savoir ce que pourraient réellement réserver les IA du futur, Jean-Gabriel Ganascia ne se risque qu’à quelques prédictions modérées, de la généralisation des voitures dites « autonomes » (qu’il faudrait plutôt appeler « automatiques » selon lui, histoire de se débarrasser pour de bon de l’idée d’agentivité « magique ») aux technologies de réalité augmentée disponibles sur les smartphones, montres et lunettes connectées. « Tout cela peut avoir un effet important sur la vie de tous les jours, mais ça n’aura rien de cataclysmique », rassure-t-il.
Se défendant de tout « pessimisme », Wendy Hall estime quant à elle que les futures découvertes permises par les capacités d’analyse de données des IA du futur « vont être incroyables ». « Elles vont nous aider à faire toutes sortes de choses que nous ne pouvions pas faire auparavant, notamment en science, mais cela ne fera pas d’elles des êtres “superintelligents” », répète-t-elle. Au passage, la chercheuse britannique prédit d’ailleurs qu’elle n’assistera pas non plus à l’avènement d’une hypothétique intelligence artificielle générale (IAG) de son vivant. Sachant qu’à 73 ans, elle compte bien « vivre encore deux décennies ».