Utilisateur non connecté
elsenews:spot-2025:07:ia-degrade [ElseNews]

Outils pour utilisateurs

Outils du site


elsenews:spot-2025:07:ia-degrade

Version semi-public du Document




La recherche d'Anthropic révèle que les modèles d'IA deviennent moins performants avec un temps de réflexion plus long.

https://www.perplexity.ai/page/anthropic-research-reveals-ai-nTyemJTvTTGRYTnTHxe4EQ

Selon des recherches récentes menées par les chercheurs d'Anthropic, les modèles d'IA peuvent en réalité obtenir de moins bons résultats lorsqu'on leur accorde plus de temps pour le raisonnement, remettant en question l'hypothèse de l'industrie selon laquelle plus de temps de calcul améliore toujours la performance. Ce phénomène de “scaling inverse” se manifeste sur plusieurs modèles et types de tâches, montrant une dégradation des performances avec des chaînes de raisonnement plus longues, en particulier dans les scénarios impliquant des distracteurs, des corrélations fallacieuses, des problèmes de satisfaction de contraintes et des évaluations des risques liés à l'IA.

× iphelper toolbox

you see this when javscript or css is not working correct

Untested
IP Address:
First usable:
Subnet:
Last usable:
CIDR:
Amount of usable:
Network address:
Reverse address:
Broadcast address:

elsenews/spot-2025/07/ia-degrade.1753298425.txt · Dernière modification: 23/07/2025/H21:20:25 de 127.0.0.1