Utilisateur non connecté
Le vilain petit secret des générateurs d’images par IA [ElseNews]

Outils pour utilisateurs

Outils du site


Action unknown: copypageplugin__copy
elsenews:spot-2023-11:vilain5defaut5ia

25/12/2025/H19:53:39


Le vilain petit secret des générateurs d’images par IA

Le vilain petit secret des générateurs d’images par IA

DALL-E, Stable Diffusion, ou encore Midjourney, ces générateurs d’images se sont rapidement démocratisés et s’imposent comme des outils impressionnants. Ces technologies souffrent toutefois d’une faille qui vient d’être identifiée dans une récente étude menée par des chercheurs de l’Institut indien des sciences de Bangalore basé en Inde.
Des failles liées à la base de données ?
Pour résumer, ces outils ont tendance à proposer une vision du monde très occidentale, voire avant tout américaine. Par exemple, les auteurs ont constaté qu’en demandant à ces IA de dessiner une maison, cette dernière représentera d’emblée une maison américaine typique.
Les scientifiques ont demandé à ces technologies de représenter des mots tels que drapeaux, de mariages et villes. Ils ont ensuite interrogé les participants sur leurs ressentis. La plupart (sauf ceux résidant aux États-Unis) ont estimé que ces productions ne correspondaient pas à leur vie quotidienne.
Cité par Fast Company, un des auteurs s’est dit surpris par l’absence quasi totale de représentation des modèles. Il précise en revanche que l’IA se montre plus perspicace lorsqu’on lui demande de représenter un objet précis venant d’un pays en particulier. Par exemple, l’outil parvient à représenter un peu plus fidèlement une maison indienne ou allemande.
Il reste en tout cas beaucoup de chemin pour rendre les résultats plus personnalisés et moins américanocentrés qu’ils ne le sont actuellement.
“Ces technologies sont présentées comme des changements majeurs. Elles sont présentées comme des outils de créativité, et une grande partie de l’activité économique est censée être libérée. Mais si un artiste indien a beaucoup plus de mal à utiliser ces outils, je pense que c’est un grave problème”, explique le chercheur Danish Pruthi à nos confrères.
L’une des explications de cette faille provient notamment de la base de données avec laquelle ces modèles ont été entraînés. Ils utilisent souvent ImageNet, une collection très riche, mais qui n’en est pas moins critiquée, rappelle Fast Company. Par le passé des accusations de racisme et de sexisme ont été portées sur ses étiquettes. Il faudra donc veiller à l’avenir à ce que les sources soient plus diversifiées.
Pour rappel, ces générateurs d’images ont commencé à se démocratiser au cours de l’été 2022. Par une simple entrée de texte, on peut exprimer visuellement une idée. Bien sûr, ces outils sont impressionnants, mais ils restent faillibles. Nous vous parlions notamment en octobre 2022, de ces failles qui font sourire les internautes. Vous pouvez d’ailleurs toujours relire notre article à ce sujet ici.
https://www.presse-citron.net/le-vilain-petit-secret-des-generateurs-dimages-par-ia/

× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2023-11/vilain5defaut5ia.txt · Dernière modification: 28/10/2023/H13:39:24 (modification externe)