Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2023-11:vilain5defaut5ia [25/12/2025/H22:01:36] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ~~NOTOC~~ | ||
| - | @DATE@ | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== Le vilain petit secret des générateurs d’images par IA ====== | ||
| - | |||
| - | |||
| - | |||
| - | Le vilain petit secret des générateurs d’images par IA | ||
| - | |||
| - | DALL-E, Stable Diffusion, ou encore Midjourney, ces générateurs d’images se sont rapidement démocratisés et s’imposent comme des outils impressionnants. Ces technologies souffrent toutefois d’une faille qui vient d’être identifiée dans une récente étude menée par des chercheurs de l’Institut indien des sciences de Bangalore basé en Inde. | ||
| - | Des failles liées à la base de données ? | ||
| - | Pour résumer, ces outils ont tendance à proposer une vision du monde très occidentale, | ||
| - | Les scientifiques ont demandé à ces technologies de représenter des mots tels que drapeaux, de mariages et villes. Ils ont ensuite interrogé les participants sur leurs ressentis. La plupart (sauf ceux résidant aux États-Unis) ont estimé que ces productions ne correspondaient pas à leur vie quotidienne. | ||
| - | Cité par Fast Company, un des auteurs s’est dit surpris par l’absence quasi totale de représentation des modèles. Il précise en revanche que l’IA se montre plus perspicace lorsqu’on lui demande de représenter un objet précis venant d’un pays en particulier. Par exemple, l’outil parvient à représenter un peu plus fidèlement une maison indienne ou allemande. | ||
| - | Il reste en tout cas beaucoup de chemin pour rendre les résultats plus personnalisés et moins américanocentrés qu’ils ne le sont actuellement. | ||
| - | “Ces technologies sont présentées comme des changements majeurs. Elles sont présentées comme des outils de créativité, | ||
| - | L’une des explications de cette faille provient notamment de la base de données avec laquelle ces modèles ont été entraînés. Ils utilisent souvent ImageNet, une collection très riche, mais qui n’en est pas moins critiquée, rappelle Fast Company. Par le passé des accusations de racisme et de sexisme ont été portées sur ses étiquettes. Il faudra donc veiller à l’avenir à ce que les sources soient plus diversifiées. | ||
| - | Pour rappel, ces générateurs d’images ont commencé à se démocratiser au cours de l’été 2022. Par une simple entrée de texte, on peut exprimer visuellement une idée. Bien sûr, ces outils sont impressionnants, | ||
| - | https:// | ||
you see this when javscript or css is not working correct