https://www.perplexity.ai/page/anthropic-research-reveals-ai-nTyemJTvTTGRYTnTHxe4EQ
Selon des recherches récentes menées par les chercheurs d'Anthropic, les modèles d'IA peuvent en réalité obtenir de moins bons résultats lorsqu'on leur accorde plus de temps pour le raisonnement, remettant en question l'hypothèse de l'industrie selon laquelle plus de temps de calcul améliore toujours la performance. Ce phénomène de “scaling inverse” se manifeste sur plusieurs modèles et types de tâches, montrant une dégradation des performances avec des chaînes de raisonnement plus longues, en particulier dans les scénarios impliquant des distracteurs, des corrélations fallacieuses, des problèmes de satisfaction de contraintes et des évaluations des risques liés à l'IA.
you see this when javscript or css is not working correct