Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2024:09:openai-bannit-strawberry [26/12/2025/H06:17:14] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | @DATE@ | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== OpenAI bannit ceux qui cherchent à comprendre Strawberry ====== | ||
| - | |||
| - | OpenAI a récemment lancé un avertissement. Les utilisateurs de son dernier modèle d’intelligence artificielle (IA), « Strawberry », doivent éviter de creuser son fonctionnement interne. Ceux qui essaient de comprendre les mécanismes derrière son raisonnement risquent l’interdiction. Des rapports circulent sur les réseaux sociaux à ce sujet. | ||
| - | | ||
| - | Le modèle Strawberry, également connu sous le nom d’o1-preview, | ||
| - | L’entreprise a commencé à envoyer des courriels d’avertissement et plusieurs utilisateurs rapportent avoir reçu des messages signalant des violations. Ces avertissements visent particulièrement ceux qui tentent de mieux comprendre le fonctionnement du modèle Strawberry. OpenAI menace de suspendre l’accès à GPT-4o si un utilisateur cherche à obtenir ces informations. | ||
| - | Selon certains utilisateurs, | ||
| - | |||
| - | Le contrôle strict du processus | ||
| - | Dans un article de blog, OpenAI a expliqué son choix. L’entreprise craint que le modèle génère des réponses contraires à ses politiques de sécurité. En réfléchissant à haute voix, Strawberry pourrait produire des idées inappropriées. | ||
| - | Afin d’éviter ces situations, OpenAI choisit de masquer certains aspects du raisonnement. Cette décision lui permet également de préserver son avantage concurrentiel. En maintenant une part de confidentialité autour de ses technologies, | ||
| - | Un recul sur la transparence ? | ||
| - | Pour plusieurs experts en IA, cette décision marque un retour en arrière. Simon Willison, un chercheur en intelligence artificielle, | ||
| - | Cette décision complique aussi le travail des red-teamers. Ces programmeurs testent les IA pour y déceler des failles et améliorer la sécurité. OpenAI centralise ainsi davantage le contrôle de son modèle, au lieu de le rendre plus ouvert. | ||
| - | |||
| - | Cette attitude d’OpenAI pourrait influencer le développement futur de l’intelligence artificielle. Alors qu’elle défendait autrefois une IA ouverte et accessible, l’entreprise adopte désormais un modèle plus strictement contrôlé. Ce changement pourrait ralentir les initiatives d’autres acteurs et réduire les opportunités d’améliorations potentielles. | ||
| - | Finalement, la décision d’OpenAI, notamment en ce qui concerne des modèles comme Strawberry, divise la communauté. Certains estiment que ce contrôle renforce la sécurité. D’autres craignent que cette opacité n’entrave l’évolution des modèles d’intelligence artificielle. Le débat autour de la transparence de l’IA ne fait que commencer. | ||
| - | Partager l' | ||
| - | GPT OpenAI | ||
| - | Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation. | ||
| - | https:// | ||
you see this when javscript or css is not working correct