Nvidia répond à DeepSeek R1 avec Nemotron Super

 
Nvidia n’avait pas que du matériel à présenter à la GTC 2025. La firme a aussi dévoilé un modèle plus performant que le chinois DeepSeek R1.

Le monde occidental de l’IA a connu une secousse en début d’année avec la sortie surprise de DeepSeek R1.

Ce modèle de langage propose un système de raisonnement très performant et bien moins cher que les géants du secteur. De quoi faire chuter l’action de Nvidia au mois de janvier.

Un défi saisi au vol pour les équipes de Jensen Hueng qui dévoilent ce soir un modèle concurrent et promettant encore plus de performances : NVIDIA Llama Nemotron.

Jusqu’à 253 milliards de paramètres

En réalité, c’est une famille de modèles :

  • Nano et ses 8 milliards de paramètres pour les PC ;
  • Super et ses 49 milliards de paramètres pour les serveurs ;
  • Ultra et ses 253 milliards de paramètres pour les serveurs à plusieurs GPU.

Ces modèles basés sur le travail autour de Llama 3.3 sont proposé en open source par Nvidia.

Benchmarks à l’appui, Nvidia promet que Nemotron Super est plus performant que DeepSeek R1 à la réalisation de plusieurs tâches de raisonnement.

Et Nvidia semble déjà convaincre. Plusieurs partenaires de taille étaient présents à la GTC pour travailler avec Nvidia sur ces nouveaux modèles : Atlassian, Box, Accenture, CrowdStrike, Microsoft, SAP ou encore Deloitte.