Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2025:11:prompt-ia [26/12/2025/H01:53:52] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== Une étude révèle le secret pour rendre ChatGPT beaucoup plus efficace ====== | ||
| - | |||
| - | Vous utilisez régulièrement ChatGPT, et vous vous énervez à chaque fois que l’IA ne suive pas vos consignes à la lettre ? Et si parler sèchement à une intelligence artificielle pouvait la rendre plus efficace ? | ||
| - | C’est ce que suggère une étude menée par des chercheurs de l’Université Penn State, qui se sont penchés sur un paramètre souvent négligé dans les interactions avec ChatGPT : le ton du message. Et selon leurs résultats, la politesse ne serait pas toujours synonyme de performance… | ||
| - | Quand l’insolence améliore la précision des réponses… | ||
| - | Pour leurs travaux, les chercheurs Om Dobariya et Akhil Kumar ont testé 50 questions à choix multiples dans des domaines variés comme les mathématiques, | ||
| - | Les résultats sont pour le moins surprenants : les prompts les plus grossiers ont obtenu le meilleur taux de précision, avec 84,8% de bonnes réponses, contre 80,8% pour les plus polis. | ||
| - | Cette différence de performance a de quoi intriguer, d’autant que les versions précédentes du modèle, comme ChatGPT-3.5, | ||
| - | De leur côté, les chercheurs y voient un signe que les modèles de langage récents pourraient être sensibles à la structure linguistique ou au niveau de perplexité d’un texte, plutôt qu’à sa charge émotionnelle. | ||
| - | Une incitation à insulter les IA ? | ||
| - | Si on pourrait penser que cette étude est une pure incitation à insulter les IA, les auteurs tiennent à nuancer leurs conclusions. En effet, si les prompts « impolis » se montrent plus efficaces dans un contexte expérimental, | ||
| - | Par ailleurs, l’étude souligne aussi ses propres limites : un échantillon réduit, des questions fermées et un seul modèle testé. Néanmoins, précisons que d’autres recherches, menées sur Claude ou ChatGPT-o3, sont déjà en cours pour déterminer si ce phénomène s’étend à d’autres architectures. | ||
| - | Au delà de l’anecdote qui peut faire sourire, ces travaux mettent en lumière un point à ne pas prendre à la légère : la forme d’un prompt influence toujours la réponse générée. Et si l’ironie semble booster la précision des modèles actuels, le véritable défi reste de comprendre pourquoi pour, à long terme, obtenir le même gain d’efficacité sans avoir à malmener son IA. | ||
| - | https:// | ||
you see this when javscript or css is not working correct