Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2024:06b:etude-destruction-internet-par-ia [26/12/2025/H02:24:14] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ~~NOTOC~~ | ||
| - | @DATE@ | ||
| - | |||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== Des chercheurs de Google publient une étude sur la destruction d' | ||
| - | |||
| - | Un groupe de chercheurs de Google a publié une étude révélant comment l’IA est en train de détruire internet en propageant de fausses informations, | ||
| - | Depuis son déploiement en 2022, l’IA générative a offert un lot d’opportunités pour accélérer le développement de nombreux domaines. Les outils d’IA disposent désormais de capacités élevées allant de l’analyse audiovisuelle complexe (par le biais de la compréhension du langage naturel) au raisonnement mathématique, | ||
| - | Cependant, à mesure que la technologie se développe, les risques d’utilisation abusive deviennent toujours plus préoccupants. Parmi ces utilisations figure la propagation de la désinformation, | ||
| - | Cependant, bien que les précédentes études fournissent de précieuses informations sur les menaces liées à l’utilisation abusive l’IA, elles n’indiquent pas précisément les différentes stratégies qui pourraient être utilisées à cette fin. En d’autres termes, nous ne savons pas quelles tactiques sont utilisées par les utilisateurs malveillants pour propager de fausses informations. Or, à mesure que la technologie devient plus performante, | ||
| - | La nouvelle étude, réalisée par une équipe de Google, met en lumière les différentes stratégies utilisées pour propager de fausses informations générées par IA sur internet. « Grâce à cette analyse, nous mettons en lumière les principaux et nouveaux modèles d’utilisation abusive, y compris les motivations potentielles, | ||
| - | Des utilisations abusives qui ne nécessitent pas d’expertise technique avancée | ||
| - | Les chercheurs ont analysé 200 rapports médiatiques de cas d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Sur la base de cette analyse, les tendances clés sous-tendant ces utilisations ont été identifiées, | ||
| - | Fréquence des tactiques selon les catégories. Chaque barre représente la fréquence à laquelle une tactique a été identifiée dans l’ensemble de données. Chaque cas d’utilisation abusive pourrait impliquer plus d’une tactique. © Nahema Marchal et al. | ||
| - | Les chercheurs ont constaté que les cas d’abus les plus fréquents sont les fausses images de personnes et la falsification de preuves. La plupart de ces faux contenus seraient propagés dans l’intention manifeste d’influencer l’opinion publique, de faciliter les activités frauduleuses (ou les escroqueries) ainsi que pour générer du profit. D’autre part, la majorité des cas (9 cas sur 10) ne nécessitent pas d’expertise technique avancée, mais s’appuient davantage sur les capacités (facilement exploitable) des outils. | ||
| - | Il est intéressant de noter que les abus ne sont pas explicitement malveillants, | ||
| - | Ce constat suggère que bien que la plupart des outils d’IA disposent de conditions de sécurité conformes à l’éthique, | ||
| - | D’un autre côté, les utilisateurs peuvent également contourner ces mesures de sécurité d’une autre manière. S’il n’est par exemple pas possible de saisir une invite contenant explicitement le nom d’une célébrité, | ||
| - | Toutefois, l’utilisation de données provenant uniquement des médias limite la portée de l’étude, ont précisé les chercheurs. En effet, ces organismes ne se concentrent généralement que sur les informations spécifiques susceptibles d’intéresser leur public cible, ce qui peut introduire des biais dans l’analyse. En outre, le document ne mentionne étrangement aucun des cas d’utilisation abusive des outils d’IA développés par Google… | ||
| - | Néanmoins, les résultats offrent un aperçu de l’ampleur de l’impact de la technologie sur la qualité de l’information numérique. Selon les chercheurs, cela souligne la nécessité d’une approche multipartite pour atténuer les risques d’utilisation malveillante de la technologie. | ||
| - | Source : arXiv | ||
| - | {{https:// | ||
you see this when javscript or css is not working correct