L’intelligence artificielle est un vaste sujet, recoupant différentes thématiques, allant des applications pratiques aux aspects théoriques, avec notamment l’apprentissage de données de ces IA par le biais de ce qu’on appelle les LLM (modèles de langage). Aujourd’hui, les entreprises à l’origine de nombreux systèmes d’IA suscitent des préoccupations quant au coût économiques et environnementales qu’elles engendrent. DeepSeek propose une solution à ce problème, du moins d’un point de vue économique.
Plus Rapide et Moins cher
En progressant et en devenant de plus en plus performantes, les intelligences artificielles augmentent les paramètres de leurs modèles de langage pour rester pertinentes et comprendre des requêtes de plus en plus complexes. Une amélioration qui a un coût. À titre d’exemple, la version 3 de ChatGPT, qui compterait 175 milliards de paramètres selon The Verge, a coûté plusieurs centaines de millions de dollars à être développé. OpenAI, sa société mère, est d’ailleurs régulièrement pointée pour les sommes astronomiques qui lui permettent de rester à flot.
Selon Jim Fan, chercheur scientifique chez Nvidia, DeepSeek, basé à Hangzhou en Chine, est considéré comme « le plus grand outsider » de 2025 dans le domaine des LLM open source volumineux, rapporte le média chinois South China Morning Post.
En comparaison avec ChatGPT, DeepSeek V3, qui est doté de 671 milliards de paramètres, a été formé en seulement deux mois pour un coût de 5,58 millions de dollars américains.
Un modèle Open Source
De son côté, en plus d’être économique, DeepSeek se positionne comme un modèle open source qui semble faire ses preuves auprès des professionnels. « DeepSeek V3 semble être un modèle plus puissant, avec seulement 2,8 millions d’heures GPU », a déclaré Andrej Karpathy, anciennement responsable de l’IA chez Tesla membre fondateur de l’équipe d’OpenAI, dans un post sur X (Twitter). À titre de comparaison, Llama 3.1, l’IA du goupe Meta, a nécessité 30,8 millions d’heures GPU d’entrainement, selon South China Morning Post.
« Je suis DeepSeek depuis longtemps. L’année dernière, ils ont eu l’un des meilleurs modèles de codage ouvert », indique Fan. Il poursuit en indiquant que ces modèles open source vont exercer une pression énorme sur le secteur qui conduira à une rapide évolution.
Pour les plus curieux, le modèle de DeepSeek est accessible sur Hugging Face et il est accompagné de sa documentation sur GitHub.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix