25/12/2025/H23:54:23
Rick Song, P.-D.G. de l'entreprise spécialiste de vérification d'identité Persona, décrypte sur le site VentureBeat l'« effondrement du modèle ». Ce processus dégénératif s'apparente à un cannibalisme technologique où l'IA, en se nourrissant exclusivement de ses propres productions, amplifie ses erreurs initiales.
Chaque nouvelle itération génère des données de plus en plus dégradées, comme un photocopieur qui reproduirait successivement ses copies, perdant en netteté et en précision. Les conséquences sont multiples, comme des modèles qui perdent leur capacité à saisir les nuances, réduisent drastiquement leur diversité et amplifient mécaniquement leurs biais préexistants.
L'étude publiée dans Nature est sans appel : des modèles linguistiques entraînés en boucle sur leurs propres générations produisent, dès la neuvième itération, un contenu totalement incohérent. Cela signifie que l'IA s'éloigne progressivement de sa mission originelle : comprendre et restituer intelligemment l'information.
https://www.clubic.com/actualite-547283-a-court-de-vraies-donnees-les-laboratoires-d-ia-entrainent-des-modeles-avec-des-donnees-generees-par-ia.html
you see this when javscript or css is not working correct