Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente | |||
|
elsenews:spot-2024:05:superalignement-openai [26/12/2025/H09:58:25] 216.73.216.167 supprimée |
— (Version actuelle) | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| - | ~~NOTOC~~ | ||
| - | @DATE@ | ||
| - | |||
| - | |||
| - | ---- | ||
| - | ====== SuperAlignement : « OpenAI porte une énorme responsabilité au nom de toute l' | ||
| - | |||
| - | Est-ce que les grandes entreprises de la tech prennent l' | ||
| - | Quelle semaine pour OpenAI ! Lundi, la start-up spécialisée dans l’intelligence artificielle a dévoilé son nouveau modèle multimodal, GPT-4o. Le lendemain, Google, son principal concurrent, dévoilait une technologie similaire. Mercredi, on apprenait le départ d’Ilya Sutskever, l’un des cofondateurs de l’entreprise et de Jan Leike, un cadre haut placé. Et c’est ce dernier qui a levé de nombreuses questions ce vendredi sur la plateforme X.com. | ||
| - | Un départ motivé par des valeurs | ||
| - | Chez OpenAI, les deux hommes étaient à la tête de Superalignment, | ||
| - | Si Ilya Sutskever est resté plutôt chaleureux dans son message de départ, Jan Leike exprime davantage d’amertume dans son thread public sur le réseau social d’Elon Musk. S’il commence par exprimer son affection pour les différentes équipes d’OpenAI, il précise rapidement être « en désaccord avec la direction d’OpenAI sur les priorités fondamentales de l’entreprise ». En cause : l’intérêt trop faible porté par l’entreprise à la sécurité, la confidentialité, | ||
| - | Vers une super intelligence | ||
| - | À l’heure actuelle, on peut se demander quels peuvent être les risques réels de l’intelligence artificielle. Pour le moment, les chatbots qui font la une des médias ont tendance à régurgiter sans grande réflexion des informations apprises dans un corpus donné, avec parfois de grossières erreurs que l’on appelle « hallucinations ». Mais à la vitesse où cela progresse, on peut s’attendre dans les prochaines années (dans la décennie selon OpenAI) à l’arrivée de ce que les chercheurs appellent une « super intelligence », | ||
| - | Sans même aller jusqu’à l’extrémité d’un soulèvement des machines à la Terminator, il est important de mettre dans la balance toutes les conséquences potentielles d’un tel développement. On le voit déjà à l’heure actuelle avec les questions sur la désinformation en ligne par exemple. | ||
| - | Les responsabilités d’OpenAI (et les autres) | ||
| - | En tant que figure de proue de ces avancées, OpenAI comme Google ont une lourde responsabilité sur les épaules « au nom de toute l’humanité », | ||
| - | Le problème s’avère en réalité économique et commercial. Dans un monde capitaliste mondialisé, | ||
| - | Pour Jan Leike, « OpenAI doit devenir une entreprise axée sur la sécurité ». En Europe, l’AI Act devrait réglementer certaines dérives, mais il ne fait aucun doute que l’entreprise qui se concentrera sur le produit sans se soucier de ces considérations aura l’occasion de prendre une longueur d’avance sur tous ses concurrents. | ||
| - | Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam ! | ||
| - | <a href=" | ||
you see this when javscript or css is not working correct