Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2024:07:ia-degenerent [26/12/2025/H07:37:52] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | |||
| - | ~~NOTOC~~ | ||
| - | @DATE@ | ||
| - | https:// | ||
| - | |||
| - | ---- | ||
| - | ====== Des chercheurs prouvent que les modèles d'IA dégénèrent s'ils sont entraînés avec leurs propres résultats ====== | ||
| - | |||
| - | [[LINK|TITLE]] | ||
| - | |||
| - | Utiliser des données générées par IA pour enrichir un modèle d’IA conduit progressivement à l’effondrement de la qualité de ses résultats. | ||
| - | Détruire un modèle d’IA sera peut-être une préoccupation d’activistes d’ici quelques années. Grâce à une étude publiée dans Nature, on connaît une méthode qui, au moins, semble fonctionner. Des chercheurs en intelligence artificielle de Cambridge, au Royaume-Uni, | ||
| - | L’expérimentation n’a rien d’un projet néo-luddite, | ||
| - | L’expérience menée à Cambridge : générer des articles Wikipédia | ||
| - | L’équipe de Shumaylov a testé son hypothèse avec l’un des usages les plus fréquents des intelligences artificielles génératives : la génération de texte. Un premier modèle a été enrichi avec des articles de Wikipédia (comme peuvent l’être de nombreux modèles, de ChatGPT à Gemini). Les chercheurs ont ensuite demandé à ce modèle de générer des articles de style Wikipédia. Une tâche simple pour un modèle entraîné sur une bonne matière première, constituée d’articles de Wikipédia. | ||
| - | Mais voilà, ils ont ensuite ajouté les articles générés au modèle initial, mélangeant une source « pure » et authentique (les vrais articles Wikipédia) et une source générée (les articles générés par le modèle dans le style de Wikipédia). Et déjà, les choses ont empiré, avec une seule génération de modèle qui n’a que partiellement été entraînée avec des IA. | ||
| - | Pourquoi cet appauvrissement dans le matériau original survient-il ? La raison principale vient de l’échantillon de texte source. Quand vous utilisez comme source un article original, notamment d’encyclopédie, | ||
| - | Un danger pour les moteurs de recherche par IA | ||
| - | Cette étude prouve que l’IA a besoin d’une donnée de qualité pour s’enrichir et garder un haut niveau d’exigence. Cela s’applique dans un cadre universitaire, | ||
| - | Cette expérience de Google, lancée aux États-Unis, | ||
| - | L’interface de Google Gemini ne devrait pas dépayser les utilisateurs de ChatGPT. // Source : Numerama | ||
| - | C’est aussi ce que peut craindre OpenAI, qui vient de lancer en bêta très privée son concurrent à Gemini : SearchGPT. Le géant derrière ChatGPT espère concurrencer Google sur le sujet de l’avenir des moteurs de recherche, mais se heurtera aux mêmes écueils s’il ne fait pas attention à son corpus d’entraînement initial… et à ses enrichissements ultérieurs. | ||
| - | La proposition des chercheurs de Cambridge pour éviter cela, serait de parvenir à une sorte de watermark, permettant avec certitude d’identifier un texte généré ou une image générée, afin de l’exclure de l’enrichissement des modèles. | ||
| - | |||
| - | [[LINK|TITLE]] | ||
you see this when javscript or css is not working correct