Cette entreprise chinoise à de quoi rivaliser avec ChatGPT

 
L’entreprise chinoise, DeepSeek, propose aujourd’hui une solution d’apprentissage pour les IA bien moins coûteuse que son concurrent américain d’OpenAI.
Source : Frandroid

L’intelligence artificielle est un vaste sujet, recoupant différentes thématiques, allant des applications pratiques aux aspects théoriques, avec notamment l’apprentissage de données de ces IA par le biais de ce qu’on appelle les LLM (modèles de langage). Aujourd’hui, les entreprises à l’origine de nombreux systèmes d’IA suscitent des préoccupations quant au coût économiques et environnementales qu’elles engendrent. DeepSeek propose une solution à ce problème, du moins d’un point de vue économique.

Plus Rapide et Moins cher

En progressant et en devenant de plus en plus performantes, les intelligences artificielles augmentent les paramètres de leurs modèles de langage pour rester pertinentes et comprendre des requêtes de plus en plus complexes. Une amélioration qui a un coût. À titre d’exemple, la version 3 de ChatGPT, qui compterait 175 milliards de paramètres selon The Verge, a coûté plusieurs centaines de millions de dollars à être développé. OpenAI, sa société mère, est d’ailleurs régulièrement pointée pour les sommes astronomiques qui lui permettent de rester à flot.

Selon Jim Fan, chercheur scientifique chez Nvidia, DeepSeek, basé à Hangzhou en Chine, est considéré comme « le plus grand outsider » de 2025 dans le domaine des LLM open source volumineux, rapporte le média chinois South China Morning Post.

En comparaison avec ChatGPT, DeepSeek V3, qui est doté de 671 milliards de paramètres, a été formé en seulement deux mois pour un coût de 5,58 millions de dollars américains.

Un modèle Open Source

De son côté, en plus d’être économique, DeepSeek se positionne comme un modèle open source qui semble faire ses preuves auprès des professionnels. « DeepSeek V3 semble être un modèle plus puissant, avec seulement 2,8 millions d’heures GPU », a déclaré Andrej Karpathy, anciennement responsable de l’IA chez Tesla membre fondateur de l’équipe d’OpenAI, dans un post sur X (Twitter). À titre de comparaison, Llama 3.1, l’IA du goupe Meta, a nécessité 30,8 millions d’heures GPU d’entrainement, selon South China Morning Post.

« Je suis DeepSeek depuis longtemps. L’année dernière, ils ont eu l’un des meilleurs modèles de codage ouvert », indique Fan. Il poursuit en indiquant que ces modèles open source vont exercer une pression énorme sur le secteur qui conduira à une rapide évolution.

Pour les plus curieux, le modèle de DeepSeek est accessible sur Hugging Face et il est accompagné de sa documentation sur GitHub.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

Les derniers articles