Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2024:05:ia-express [25/12/2025/H21:41:27] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ~~NOTOC~~ | ||
| - | @DATE@ | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== "Si l’IA devient plus intelligente que nous…" | ||
| - | |||
| - | |||
| - | " | ||
| - | Une vraie crise de conscience. Pendant des années, Yoshua Bengio a fait progresser l’intelligence artificielle à pas de géant. Les travaux qu’il a menés sur le deep learning avec Yann Le Cun et Geoffrey Hinton ont valu au trio de recevoir le prestigieux Prix Turing en 2018. Aujourd’hui, | ||
| - | L’Express : En mars 2023, vous avez cosigné un appel à un moratoire sur l’IA, en compagnie d’autres chercheurs ou de figures comme Elon Musk. Avec un an de recul, êtes-vous toujours aussi inquiet ? | ||
| - | Yoshua Bengio : Mes principales inquiétudes ne sont pas liées à l’immédiat, | ||
| - | A quel horizon pensez-vous qu’une AGI, ou intelligence artificielle générale, puisse voir le jour ? Geoffrey Hinton, avec qui vous avez partagé le prix Turing, l’annonce à moins de vingt ans… | ||
| - | Je n’ai pas de boule de cristal. Je pensais qu’il nous faudrait bien plus de temps pour attendre le niveau de maîtrise du langage des IA génératives actuelles. Je me suis trompé, et je reste donc très humble dans mes prédictions. Il nous manque des briques à un niveau fondamental pour arriver à une AGI, mais à chaque nouvelle version de ces systèmes d’IA, nous avons des surprises… | ||
| - | Quel serait pour vous le scénario noir ? | ||
| - | A relativement court terme, ce qui m’inquiète le plus, c’est la capacité de ces systèmes à influencer les opinions. Jusqu’à présent, on a vu des trucages visuels ou auditifs permettant de répandre des fake news. Mais il y a désormais un nouvel élément : la capacité d’influencer des personnes à travers une interaction et des dialogues. Une IA pourra vous convaincre d’une fausse information en échangeant avec vous pendant des heures, des jours ou des mois. Des études, notamment une de l’EPFL [NDLR : l' | ||
| - | A plus long terme, plusieurs gouvernements redoutent que ces systèmes, à mesure que leur compréhension de la biologie moléculaire s’affine, puissent faciliter la mise au point d’armes biologiques. Nous en sommes encore loin. Mais il ne faut pas penser à court terme. D’autant plus que les gouvernements mettront du temps à minimiser ce risque en adoptant des contre-mesures et des lois. Il faut prendre le temps de discuter pour que l’opinion publique prenne bien conscience de ces enjeux, car il s’agit de vrais choix démocratiques. | ||
| - | “Avec Yann Le Cun, nous avons une vraie divergence sur la nécessité d’une réglementation” | ||
| - | On vous rétorquera que dans une compétition mondiale opposant notamment les Etats-Unis à la Chine, il est très difficile de réguler des innovations technologiques, | ||
| - | C’est ridicule. Il y a une régulation dans tous les domaines. Pourquoi l’informatique y échapperait-elle ? Partout où le public est potentiellement menacé par une technologie, | ||
| - | Yann Le Cun, lui aussi co-lauréat du prix Turing 2018, se montre bien plus optimiste que vous, et qualifie même les discours alarmistes de " | ||
| - | Si on écoute ce que Yann dit dans ses tribunes et conférences, | ||
| - | Certains chercheurs en IA sont aujourd’hui dans la même posture que moi avant l’arrivée de ChatGPT. Ils estiment que les risques sont si éloignés dans le temps que ce n’est pas la peine de s’en occuper. Mais il y a déjà des vrais enjeux ! Ce qui signifie que les gouvernements doivent s’en mêler. Une réglementation de l’IA nous aidera à la fois à court, moyen et long terme. Il faut dès maintenant mettre en place des incitations pour que les entreprises travaillent également pour la protection du grand public et pas uniquement dans leur propre intérêt. Les compagnies pharmaceutiques doivent bien prouver que leur produit n’est pas toxique. | ||
| - | Cela ne risque-t-il pas de freiner le développement de start-up innovantes ? | ||
| - | C’est absurde. Dans les propositions de réglementation que nous faisons, il y a le principe de proportionnalité. Seuls les systèmes potentiellement les plus dangereux nécessitent une surveillance. Et comme ils coûtent des milliards à fabriquer, ce sont rarement de petites start-up qui les développent. J’espère vraiment que ce principe de proportionnalité sera appliqué en Europe, et que cette régulation sera assez agile pour s’adapter à une technologie qui ne cesse d’évoluer. Il faut que la réglementation laisse assez de liberté pour agir comme on le fait, par exemple, avec les avions. Si on découvre un problème technique, on bloque au sol les appareils dangereux. | ||
| - | Des recherches se développent aujourd’hui pour éviter que les IA ne soient de véritables boîtes noires. Y a-t-il déjà des premiers progrès ? | ||
| - | Malheureusement, | ||
| - | Nous devons aller dans le même sens en IA. Je ne suis pas de ceux qui veulent stopper toute IA pour lesquelles on ne dispose pas d’explications précises. Mais il faut mettre cela en regard de l’impact qu’elle aura. Si ce manque d’explications peut avoir des conséquences graves, on ne veut pas prendre ce genre de risques. En revanche, certaines applications très grand public ne présentent guère de danger. Le fait de ne pas avoir tous les détails sur le fonctionnement de celles-ci sera donc moins problématique. | ||
| - | Toutes les nouvelles technologies, | ||
| - | Il y a une différence d’échelle et d’impact. Les risques liés à son utilisation par des terroristes ou des gouvernements cherchant à nuire, tout comme le danger d’une perte de contrôle par les humains, devraient nous pousser vers le principe de précaution. Il faut essayer d’étudier, | ||
| - | Quelles contraintes juridiques et techniques préconisez-vous pour prévenir les risques ? | ||
| - | Le minimum, comme le demande le décret américain publié en octobre dernier par Joe Biden, c’est que ces grands systèmes soient connus des gouvernements, | ||
| - | Aujourd’hui, | ||
| - | Mais il faut aussi explorer, sur le plan scientifique, | ||
| - | “L’IA ne sera peut-être qu’un gadget de plus dans nos téléphones, | ||
| - | A vos yeux, les géants de la tech ont-ils suffisamment conscience de ces risques ? | ||
| - | Ce qui me préoccupe, c’est le manque de visibilité sur ce qui se passe à l’intérieur de ces entreprises. Mais je sais qu’en interne, il y a des gens qui sont inquiets. Ce qui est certain, c’est que Microsoft et Google sont pris dans une compétition malsaine. C’est pour eux une question de survie, et ils seront donc prêts à tout pour être les premiers et gagner cette guerre commerciale. C’est pour ça que nous devons légiférer. La compétition entre ces entreprises est un facteur de risque, car elles ne feront pas d’elles-mêmes les investissements nécessaires pour s’assurer de la sécurité du public. | ||
| - | Du côté des techno-optimistes comme des alarmistes, n’y a-t-il pas une même tendance à surévaluer la portée de cette nouvelle technologie ? | ||
| - | L’attitude rationnelle à avoir face à l’utilité épistémique de l’IA, c’est de se dire qu’on ne sait pas. Mais on voit des scénarios possibles, certains extraordinairement bénéfiques, | ||
| - | Le deep learning change-t-il notre façon de penser, d’une approche causale au règne du probable ? | ||
| - | Comme je vous le disais, beaucoup de compétences cognitives sont trop complexes pour pouvoir être exprimées dans un langage clair et précis. Quand on essaie de mettre en place des IA, on évolue dans un univers très différent de celui habituel en science et en informatique. Jusqu’à présent, c’est l’humain qui décidait et rédigeait les lignes de code. Là, c’est la machine qui, d’une certaine manière, choisit son propre code selon les objectifs mathématiques qu’on lui fournit. La façon dont la machine répond à ces objectifs est, par nature, opaque. C’est un changement fondamental. Cela n’exclut pas le fait qu’un jour, des systèmes d’IA raisonneront de manière plus explicite et causale. Il y a des améliorations possibles dans ce sens. Mais nous entrons dans un univers qualitativement très différent des technologies précédentes, | ||
| - | La fiabilité des réponses des IA va-t-elle s’améliorer ? Pour l’instant, | ||
| - | On a effectivement des systèmes qui peuvent donner des réponses fausses avec beaucoup de confiance. Beaucoup d’humains font la même chose (rires). Mais pour un produit, surtout s’il est censé apporter des solutions à des problèmes critiques, cela peut être très dangereux. Ce n’est pas un obstacle infranchissable, | ||
| - | Arrivera-t-on à aligner l’IA sur les humains ? | ||
| - | Cela pose des problèmes similaires à l’éducation d’un animal, qu’on récompense ou punit selon son comportement. Si vous voulez convaincre votre chat de ne pas aller sur la table de la cuisine pour y chercher de la nourriture, vous pouvez lui donner des incitations positives et négatives. Quand vous serez dans la cuisine, il n’ira pas sur la table. Mais en votre absence, c’est une autre paire de manches… Cette comparaison est simple, mais avec des IA qui ont des connaissances et des usages variés, il est très difficile de s’assurer que, dans tous les contextes, elles répondent d’une manière que nous humains, jugerons morale. Il y aura toujours un écart entre ce que nous souhaiterions socialement et le comportement de ces systèmes. La seule façon d’y répondre, c’est de contrôler les tendances néfastes de certaines IA, et de les inhiber. | ||
| - | Vous comparez souvent les risques liés à l’IA au réchauffement climatique. Mais il y a depuis longtemps un consensus scientifique pour ce dernier, contrairement à l’IA… | ||
| - | Les parallèles entre le réchauffement climatique et l’IA sont nombreux. Dans les deux cas, l’intérêt des entreprises privées n’est pas celui du public. Les dégâts potentiels sont gigantesques. Longtemps, l’opinion publique a été insensible à la question du réchauffement climatique, car elle n’en percevait pas les effets immédiats. C’est pareil aujourd’hui avec l’AI : on ne voit pas des Terminator dans les rues. Les humains ont tendance à agir sur la base de leurs émotions, qui se trouvent dans l’ici et maintenant. C’est pour cela qu’il y a besoin de mener un travail pédagogique sur les risques potentiels de cette technologie. Pour l’instant, | ||
| - | Cela demande donc un grand effort de la part des médias pour améliorer la compréhension de ce qu’est une IA, de leur évolution possible et des raisons pour lesquelles des entreprises sont prêtes à investir des centaines de milliards de dollars, et envisagent des profits estimés à un million de milliards si les IA arrivent au niveau de l’intelligence humaine. C’est un aimant énorme. Mais la plupart des personnes ont encore des difficultés à comprendre ces enjeux. Et, effectivement, | ||
| - | Y a-t-il une "crise de conscience" | ||
| - | Il y a une prise de conscience croissante. Mais il y a aussi un phénomène de l’autruche, | ||
| - | Qu’est-ce qui vous a fait changer d’avis ? | ||
| - | L’arrivée de ChatGPT. J’ai alors pensé à mon petit-fils qui a 2 ans et demi. Même si la probabilité est faible, je ne veux pas qu’il connaisse une catastrophe provoquée par cette technologie. | ||
| - | . | ||
| - | https:// | ||
you see this when javscript or css is not working correct