Llama 4 de Meta est là : tout ce qu’il faut savoir sur cette IA qui équipe WhatsApp, Instagram et Facebook

Scout, Maverick, Behemot

 
La course à l’IA s’accélère avec l’arrivée surprise de Llama 4. Meta dévoile sa nouvelle génération de modèles aux capacités impressionnantes : 10 millions de jetons de contexte pour Scout, 400 milliards de paramètres pour Maverick, et près de 2000 milliards pour le mystérieux Behemoth encore en développement.

Hier, on vous parlait d’un LLM mystérieux… et il s’agissait de Llama 4 de Meta. Quelques heures après l’apparition du mystérieux modèle de données, Meta a annoncé Llama 4.

On parle de quatre modèles flambant neufs : Scout, Maverick, Behemoth et un petit dernier encore en préparation.

Selon Meta, ces modèles ont été nourris avec des tonnes de données – textes, images, vidéos – pour leur donner une vision à 360 degrés du monde. Meta a mis le paquet, poussé dans le dos par la concurrence chinoise de DeepSeek, qui a visiblement donné un coup de boost à leurs équipes. Résultat : Scout et Maverick sont déjà dispo gratuitement sur Llama.com et Hugging Face, tandis que Behemoth, le mastodonte, est encore en développement. Et bonne nouvelle : Meta AI, l’assistant qu’on trouve sur WhatsApp ou Instagram, tourne déjà sur Llama 4 dans 40 pays.

Pour aller plus loin
Après Le Chat, ChatGPT, Claude, Grok… voici un nouveau chatbot IA gratuit sur WhatsApp, Facebook, Instagram et Messenger

40 pays… mais pas en France. L’Union européenne ne fait pas partie des régions où Llama 4 est disponible pour le moment.

Une architecture très solide

Selon les tests internes de Meta, Maverick surpasserait des modèles comme GPT-4o d’OpenAI et Gemini 2.0 de Google sur certains benchmarks de codage, de raisonnement, de multilinguisme et de traitement d’images. Toutefois, il ne serait pas encore au niveau des modèles les plus récents comme Gemini 2.5 Pro, Claude 3.7 Sonnet et GPT-4.5.

Par contre, Behemoth, le modèle haut de gamme encore en développement, montrerait des performances supérieures à GPT-4.5, Claude 3.7 Sonnet et Gemini 2.0 Pro dans les domaines STEM, notamment pour la résolution de problèmes mathématiques complexes. Cependant, Meta précise qu’aucun des modèles Llama 4 n’est un véritable modèle de « raisonnement » comparable aux modèles o1 et o3-mini d’OpenAI, qui vérifient leurs propres réponses pour une plus grande fiabilité.

Côté technique, Llama 4 débarque néanmoins avec une nouveauté : une architecture dite « Mixture of Experts » (MoE). En gros, au lieu d’avoir un seul gros cerveau qui fait tout, on a plein de petits experts spécialisés qui bossent ensemble.

Cela rend le tout plus rapide et efficace. Par exemple, Maverick a 400 milliards de paramètres, mais n’en utilise que 17 milliards à la fois, répartis sur 128 experts. Scout, lui, est plus léger avec 109 milliards au total et 16 experts.

Et là où Scout brille, c’est avec sa « fenêtre contextuelle » de 10 millions de jetons. Les jetons, c’est comme des petits bouts de texte ou d’image que l’IA peut avaler d’un coup. 10 millions, ça veut dire qu’il peut lire et comprendre des documents monstrueux. Pratique pour résumer un rapport ou analyser un gros code informatique. Maverick, lui, est plus taillé pour parler ou écrire du contenu créatif, et il tient la route face à des LLM comme GPT-4o de OpenAI ou Gemini 2.0 de Google.

Behemoth, encore en chantier, promet d’être une bête avec ses 2 trillions de paramètres. Comme expliqué plus haut et comme l’explique Meta, il dépasse déjà des modèles comme GPT-4.5 ou Claude 3.7 sur des tests scientifiques. Mais attention, aucun de ces Llama 4 n’est encore un champion du « raisonnement » comme certains modèles d’OpenAI.

Avec Llama 4, Meta marque clairement son ambition de rester un acteur important de l’IA générative, tout en proposant une alternative aux modèles d’OpenAI et de Google. « Ce n’est que le début de la collection Llama 4« , prévient l’entreprise dans son article de blog, laissant présager d’autres développements à venir.

Notez que les modèles sont disponibles gratuitement, mais sous certaines conditions d’utilisation. Ils ne sont pas open-source, ils sont distribués sous un modèle de « licence de recherche » ou « licence semi-ouverte ».


Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.