Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2024-01a:ia-eaciste [25/12/2025/H17:19:07] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ~~NOTOC~~ | ||
| - | @DATE@ | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== la nouvelle IA de Google est son pire cauchemar ====== | ||
| - | |||
| - | |||
| - | la nouvelle IA de Google est son pire cauchemar | ||
| - | |||
| - | Même les investisseurs l’ont mauvaise : le cours de l’action Alphabet, la maison mère de Google, a dévissé au début de cette semaine, “effaçant tous ses gains depuis le début de l’année”, | ||
| - | Cette “chute” est “une réaction à la controverse concernant les réponses trop politiquement correctes du chatbot Gemini”, qui a conduit Google à suspendre la génération d’images de son modèle d’IA, en attendant d’en proposer une version retravaillée d’ici quelques semaines, explique le média de la Silicon Valley. Et l’affaire est devenue un “problème majeur pour Google”. | ||
| - | Incohérences historiques | ||
| - | Le lancement de Gemini, version améliorée de Bard, devait marquer la contre-attaque de Google face à ChatGPT, le générateur de textes, d’images et de vidéos qui a fait le succès d’OpenAI depuis son apparition, en novembre 2022. Au lieu de quoi, c’est “en train de devenir un cauchemar pour sa réputation”, | ||
| - | La semaine dernière, l’absence de sens politique du générateur d’images de Google a déclenché une vague de critiques sans précédent. “Gemini a créé des images des pères fondateurs des États-Unis et de soldats allemands de l’époque nazie dans ce qui semblait être une tentative de renverser les stéréotypes de genre et de race que l’on trouve dans l’IA générative”, | ||
| - | L’IA embarquée dans des guerres culturelles | ||
| - | Ces posts “ont été amplifiés par Elon Musk, le patron de X, et le [très populaire] psychologue youtubeur Jordan Peterson, qui ont accusé Google de favoriser une approche pro-diversité dans son produit”, note The Washington Post. Cette nouvelle “crise est emblématique des modèles d’IA qui se trouvent embarqués dans des guerres culturelles sur la diversité, la modération de contenus et la représentation”, | ||
| - | Google a dû présenter ses excuses, se justifier, puis désactiver les commandes d’images sur son chatbot… “Ces critiques négatives ont rappelé d’anciennes controverses sur les préjugés des technologies Google, quand l’entreprise était accusée du problème inverse : ne pas montrer suffisamment de personnes de couleur”, constate The New York Times, qui rappelle la polémique de 2015 sur Google Photos (la légende d’une photo de deux personnes noires les qualifiait de gorilles). | ||
| - | Google a passé “des années à monter des équipes chargées de limiter les résultats susceptibles d’être jugés offensants par les utilisateurs”, | ||
| - | Politique de la tech | ||
| - | La controverse a continué d’enfler quand le générateur de texte lui-même a été pris en flagrant délit. Gemini “a eu du mal à dire qui d’Hitler ou d’Elon Musk était le pire pour la société, a dit qu’il ne défendrait pas la viande ou qu’il n’aiderait pas à faire la promotion des combustibles fossiles”, | ||
| - | Pour le spécialiste de la tech Ben Thomson, le problème n’est pas tant ces réponses stupides que le fait même que Google dise “aux utilisateurs ce qu’ils doivent penser” au lieu de “les aider à prendre des décisions importantes”. Il serait temps de “débarrasser l’entreprise des employés attirés par la puissance de Google et sa capacité à servir leurs desseins politiques, et de rendre le pouvoir décisionnel à ceux qui veulent vraiment fabriquer de bons produits”, | ||
| - | Pris dans la tourmente, le patron de Google s’est fendu d’un e-mail à ses équipes le mardi 27 février en fin de journée, relate le Wall Street Journal, disant “qu’il était ‘inacceptable’ que certains des résultats de Gemini aient offensé les utilisateurs et fait preuve de partialité”. Sundar Pichai écrit : | ||
| - | “Aucune IA n’est parfaite, surtout à ce stade émergent du développement de l’industrie, | ||
| - | Wired dénonce les “commentateurs de droite qui ont sauté sur le sujet pour insinuer qu’il s’agissait d’une nouvelle preuve d’un parti pris anti-Blancs au sein de la Big Tech”. Mais en réalité, explique le magazine de la tech, cette histoire “montre surtout que les systèmes d’IA générative ne sont tout simplement pas très intelligents”. | ||
| - | https:// | ||
| - | |||
| - | ---- | ||
| - | [Courrier international: | ||
you see this when javscript or css is not working correct