Phénomène du début d’année 2025 avec son modèle de réflexion R1, l’entreprise chinoise DeepSeek vient de publier DeepSeek-V3-0324. Ce nouveau LLM open source concurrence GPT-4o et GPT-4.5. Avec 685 milliards de paramètres, il pourrait s’imposer comme une nouvelle offensive de la Chine sur l’intelligence artificielle.
DeepSeek est de retour ! La pépite chinoise de l’intelligence artificielle, qui a réussi à elle seule à provoquer un effondrement boursier aux États-Unis, s’était illustrée en début d’année grâce à ses modèles de langage capables de rivaliser avec les LLM des américains, mais avec des coûts d’utilisation nettement inférieurs. DeepSeek-R1, son modèle de réflexion, coûtait 27 fois moins cher par question que o1 (ChatGPT). De quoi remettre en question les dépenses de Google ou OpenAI. Autre avantage : R1 est open source. De nombreuses entreprises, notamment américaines, ont récupéré le modèle pour développer leurs propres services.
Avant R1, DeepSeek avait déjà impressionné la communauté de l’IA avec V3, un LLM plus classique qui rivalise avec GPT-4o ou Google Gemini. L’entreprise l’a mis à jour ce 24 mars 2025, sans aucune communication.
Ce contenu est bloqué car vous n’avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par YouTube. Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par YouTube avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix
Surprise, il y a un nouveau DeepSeek-V3
En attendant DeepSeek-R2, que les rumeurs annoncent comme susceptible de surpasser OpenAI o3 (le créateur de ChatGPT accuse DeepSeek d’avoir volé sa propriété intellectuelle), l’entreprise chinoise a publié une révision de son LLM classique, DeepSeek-V3. Son nom : DeepSeek-V3-0324, ce qui fait référence à sa date de publication.
Le modèle peut d’ores et déjà être téléchargé depuis Hugging Face et nécessite une machine très puissante. Il pèse au total approximativement 700 Go et utilise l’architecture MoE (Mixture-of-Experts) pour ne pas tout charger d’un coup, ce qui lui permet de fonctionner sur des machines puissantes, mais disponible sur le marché. Le dernier Mac Studio d’Apple fait partie des candidats.
Le nouveau modèle de DeepSeek sur Hugging Face. Source : Numerama
Quoi de neuf dans cette nouvelle version ? La fiche technique du modèle est vide. DeepSeek joue sur l’effet de surprise, un peu comme Mistral, pour faire parler de lui. On sait juste que DeepSeek-V3-0324 est un LLM avec 685 milliards de paramètres, ce qui en fait un gros bébé (le premier DeepSeek-V3 avait 671 milliards paramètres). Son coût d’utilisation est probablement le même que dans la version lancée en décembre 2024 : son entraînement était estimé comme 10 fois moins coûteux que celui de GPT-4o.
Lancer des versions révisées d’un LLM est assez courant dans l’industrie. Les premiers testeurs parlent de « changements plus grands qu’attendus », avec un modèle bien meilleur en maths. N’importe qui peut installer V3-0324 dès maintenant, en attendant une communication officielle de DeepSeek, pour détailler les changements. Pour l’instant, il reste difficile de présenter le nouveau V3 comme une rupture majeure. La Chine reste néanmoins l’adversaire le plus redoutable des États-Unis, avec une version ouverte qui profite à toute l’industrie.
Toute l'actu tech en un clin d'œil
Ajoutez Numerama à votre écran d'accueil et restez connectés au futur !
Marre des réseaux sociaux ? Rejoignez la communauté Numerama sur WhatsApp !
https://www.numerama.com/tech/1933361-deepseek-publie-un-nouveau-modele-avec-685-milliards-de-parametres.html