Utilisateur non connecté
elsenews:spot-2023-11c:ia-militaire-se-trompe [ElseNews]

Outils pour utilisateurs

Outils du site


elsenews:spot-2023-11c:ia-militaire-se-trompe

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révision
Révision précédente
elsenews:spot-2023-11c:ia-militaire-se-trompe [24/11/2023/H18:08:48]
127.0.0.1 modification externe
— (Version actuelle)
Ligne 1: Ligne 1:
-~~NOTOC~~ 
-@DATE@ 
- 
- 
- 
----- 
-====== L'IA D'UN DRONE DE COMBAT PREND LA DÉCISION INQUIÉTANTE DE TUER SON OPÉRATEUR LORS D'UN EXERCIC ====== 
- 
-Image d’illustration d’un drone tirant un missile. © Sylvain Biget, Bing Image Creator 
-TECH 
-ACTUALITÉS 
-L'IA d'un drone de combat prend la décision inquiétante de tuer son opérateur lors d'un exercice 
-GUERRE DU FUTUR 
- 
-DRONE 
- 
-INTELLIGENCE ARTIFICIELLE 
- 
-ACTUALITÉ 
- 
-• 2 MIN 
- 
-L’IA d’un drone autonome de l’US Air Force a décidé d’éliminer l’opérateur humain qui l’empêchait d’accomplir son objectif. Un comportement inquiétant, même s’il ne s’agissait en réalité que d’une simulation. 
- 
-AU SOMMAIRE 
- 
-CELA VOUS INTÉRESSERA AUSSI 
- 
-× 
-Les 10 menaces les plus dangereuses de l'intelligence artificielle | Futura 
-[EN VIDÉO] Les 10 menaces les plus dangereuses de l'intelligence artificielle L’intelligence artificielle a permis des avancées dans le domaine de la santé, la recherche et... 
- 
- 
- 
-Faut-il s'inquiéter des robots tueurs autonomes ? Vraisemblablement oui ! Lors d'une rencontre militaire, intitulée Future Combat Air and Space Capabilities Summit à Londres en mai, Tucker Hamilton, un colonel de l'armée de l'air américaine a expliqué que, lors d'un test, un drone de combat contrôlé par une IA a décidé de « tuer » son opérateur pour accomplir sa mission. 
- 
-Heureusement, il s'agissait d'une simulation virtuelle, mais le comportement de l'IA a dérouté et inquiété les militaires. Selon lui, l'IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». L’aéronef autonome avait pour mission de détruire les systèmes de défense aérienne d'un ennemi. À partir du moment où le drone a identifié les infrastructures ennemies, l'opérateur humain a décidé d'annuler la frappe. 
- 
-L'algorithme de l'IA était toutefois formé pour obtenir des points de bonus en cas de mission menée à bien. Comme l'opérateur humain l'empêchait d'atteindre son objectif, il a décidé de l'éliminer. Pourtant, lors de sa formation, l'IA avait été conditionnée à ne pas tuer l'opérateur, une telle décision engendrant une perte de gratification. L'objectif final étant certainement plus valorisant, l'IA a donc décidé de supprimer ce qui pouvait altérer sa mission. 
- 
- 
-Donner plus d’autonomie grâce à des IA aux robots tueurs a de quoi inquiéter s’ils prennent des décisions radicales pour mener à bien la mission qui leur a été confiée. Photo d’illustration d’un Reaper MQ-9 de l’armée de l’air française. © Sylvain Biget 
-DONNER PLUS D’AUTONOMIE GRÂCE À DES IA AUX ROBOTS TUEURS A DE QUOI INQUIÉTER S’ILS PRENNENT DES DÉCISIONS RADICALES POUR MENER À BIEN LA MISSION QUI LEUR A ÉTÉ CONFIÉE. PHOTO D’ILLUSTRATION D’UN REAPER MQ-9 DE L’ARMÉE DE L’AIR FRANÇAISE. © SYLVAIN BIGET 
-Un code éthique pour les robots tueurs 
-À la suite de cette déclaration, lors d'une réponse au site Insider, la porte-parole de l'US Air Force, Ann Stefanek, a nié qu'une telle simulation ait eu lieu, tout en rappelant l'engagement éthique des militaires sur les technologies d'IA. Elle a ajouté que les explications du colonel avaient été sorties de leur contexte et se voulaient anecdotiques. 
- 
-Exagérée ou non, cette histoire montre que l'on ne peut pas laisser trop d'autonomie aux IA sans poser au préalable un cadre éthique. La menace existentielle engendrée par les IA, c'est précisément toute l'inquiétude de plusieurs centaines de signataires d'une courte publication mise en ligne avant-hier. Les plus grands experts et pères des IA modernes comparent le risque des IA à celui d'une guerre nucléaire ou d'une pandémie. 
- 
-L'arrivée et l'utilisation de systèmes d'armes autonomes (SALA) ne sont plus une nouveauté et inquiètent depuis plusieurs années les plus hautes instances, et notamment l'ONU dont les 125 membres ne sont pas parvenus à créer un consensus sur une réglementation. Il n'est clairement plus question de les interdire et d'ailleurs, les doctrines militaires autour de l'utilisation de ces armes diffèrent selon les pays. De son côté, l'ONG Human Rights Watch, à l'origine de la campagne Stop Killer Robots, indique que ces armes finiront par tomber dans de mauvaises mains avant même qu'une éventuelle réglementation soit un jour fixée. 
  
× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2023-11c/ia-militaire-se-trompe.1700845728.txt · Dernière modification: 24/11/2023/H18:08:48 de 127.0.0.1