
Hier, on vous parlait d’un LLM mystérieux… et il s’agissait de Llama 4 de Meta. Quelques heures après l’apparition du mystérieux modèle de données, Meta a annoncé Llama 4.
On parle de quatre modèles flambant neufs : Scout, Maverick, Behemoth et un petit dernier encore en préparation.

Selon Meta, ces modèles ont été nourris avec des tonnes de données – textes, images, vidéos – pour leur donner une vision à 360 degrés du monde. Meta a mis le paquet, poussé dans le dos par la concurrence chinoise de DeepSeek, qui a visiblement donné un coup de boost à leurs équipes. Résultat : Scout et Maverick sont déjà dispo gratuitement sur Llama.com et Hugging Face, tandis que Behemoth, le mastodonte, est encore en développement. Et bonne nouvelle : Meta AI, l’assistant qu’on trouve sur WhatsApp ou Instagram, tourne déjà sur Llama 4 dans 40 pays.
Pour aller plus loin
Après Le Chat, ChatGPT, Claude, Grok… voici un nouveau chatbot IA gratuit sur WhatsApp, Facebook, Instagram et Messenger
40 pays… mais pas en France. L’Union européenne ne fait pas partie des régions où Llama 4 est disponible pour le moment.
Une architecture très solide
Selon les tests internes de Meta, Maverick surpasserait des modèles comme GPT-4o d’OpenAI et Gemini 2.0 de Google sur certains benchmarks de codage, de raisonnement, de multilinguisme et de traitement d’images. Toutefois, il ne serait pas encore au niveau des modèles les plus récents comme Gemini 2.5 Pro, Claude 3.7 Sonnet et GPT-4.5.
Par contre, Behemoth, le modèle haut de gamme encore en développement, montrerait des performances supérieures à GPT-4.5, Claude 3.7 Sonnet et Gemini 2.0 Pro dans les domaines STEM, notamment pour la résolution de problèmes mathématiques complexes. Cependant, Meta précise qu’aucun des modèles Llama 4 n’est un véritable modèle de « raisonnement » comparable aux modèles o1 et o3-mini d’OpenAI, qui vérifient leurs propres réponses pour une plus grande fiabilité.
Côté technique, Llama 4 débarque néanmoins avec une nouveauté : une architecture dite « Mixture of Experts » (MoE). En gros, au lieu d’avoir un seul gros cerveau qui fait tout, on a plein de petits experts spécialisés qui bossent ensemble.

Cela rend le tout plus rapide et efficace. Par exemple, Maverick a 400 milliards de paramètres, mais n’en utilise que 17 milliards à la fois, répartis sur 128 experts. Scout, lui, est plus léger avec 109 milliards au total et 16 experts.

Et là où Scout brille, c’est avec sa « fenêtre contextuelle » de 10 millions de jetons. Les jetons, c’est comme des petits bouts de texte ou d’image que l’IA peut avaler d’un coup. 10 millions, ça veut dire qu’il peut lire et comprendre des documents monstrueux. Pratique pour résumer un rapport ou analyser un gros code informatique. Maverick, lui, est plus taillé pour parler ou écrire du contenu créatif, et il tient la route face à des LLM comme GPT-4o de OpenAI ou Gemini 2.0 de Google.

Behemoth, encore en chantier, promet d’être une bête avec ses 2 trillions de paramètres. Comme expliqué plus haut et comme l’explique Meta, il dépasse déjà des modèles comme GPT-4.5 ou Claude 3.7 sur des tests scientifiques. Mais attention, aucun de ces Llama 4 n’est encore un champion du « raisonnement » comme certains modèles d’OpenAI.

Avec Llama 4, Meta marque clairement son ambition de rester un acteur important de l’IA générative, tout en proposant une alternative aux modèles d’OpenAI et de Google. « Ce n’est que le début de la collection Llama 4« , prévient l’entreprise dans son article de blog, laissant présager d’autres développements à venir.
Notez que les modèles sont disponibles gratuitement, mais sous certaines conditions d’utilisation. Ils ne sont pas open-source, ils sont distribués sous un modèle de « licence de recherche » ou « licence semi-ouverte ».
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix