Avec Phi-2, Microsoft répond déjà à Gemini Nano de Google

Microsoft fait « Phi-2 » Google et continue son chemin

 
Microsoft a présenté Phi-2, un petit modèle de langage d’IA qui a pour but d’expérimenter et qui peut en théorie fonctionner sur n’importe quel appareil. De quoi répondre à ses concurrents comme Gemini Nano de Google.
La présentation de Phi-2 par Satya Nadella // Source : Microsoft

Microsoft n’a pas qu’OpenAI dans sa poche en matière d’intelligence artificielle. L’entreprise développe elle aussi ses propres modèles de langage en interne. En juin dernier, elle dévoilait Phi-1, un petit modèle d’IA qui arrivait à surpasser ChatGPT dans certaines tâches, avec moins de puissance. Désormais, c’est au tour de Phi-2 d’entrer en scène, avec une philosophie similaire.

Pour aller plus loin
C’est quoi un LLM ? Comment fonctionnent les moteurs de ChatGPT, Google Bard et autres ?

Phi-2 : tellement moins complexe que GPT ou Gemini, mais puissant

Faire mieux avec moins : c’est là toute la philosophie de Phi-2. Il s’agit d’un petit modèle de langage, à ne pas confondre avec un grand modèle de langage. La différence avec GPT ou Gemini (Pro ou Ultra), c’est qu’il dispose de beaucoup moins de paramètres : 2,7 milliards, contre des dizaines, voire des centaines de milliards pour les LLM les plus puissants.

Les progrès de Phi-2 par rapport à Phi-1.5 // Source : Microsoft

Microsoft se targue d’avoir un Phi-2 « qui démontre des capacités exceptionnelles de raisonnement et de compréhension du langage, avec des performances de pointe parmi les modèles de langage de base de moins de 13 milliards de paramètres. » Selon les tests, Phi-2 pourrait être aussi bon, voire meilleur que des LM jusqu’à 25 fois plus grands. Ce dont on s’est rendu compte avec le développement des LLM, c’est qu’ils peuvent débloquer des capacités que nous n’avions pas anticipées.

Comment cette petite intelligence artificielle a été entraînée

L’objectif de Microsoft aujourd’hui, c’est d’essayer de les débloquer sur des modèles plus petits et plus spécialisés. On pourrait alors avoir des modèles dédiés à certaines tâches : traduction, aide à la programmation, résumé de texte, etc. Pour cela, il faut adapter l’entraînement desdits modèles, en restreignant la sélection des données.

« Résultats de Phi-2 sur un problème de physique simple, qui inclut un calcul de racine carrée approximativement correct » // Source : Microsoft

Par exemple, Phi-2 a été formé avec « des données synthétiques spécifiquement créées pour enseigner au modèle le raisonnement de bon sens et les connaissances générales ». L’idée est d’avoir des données plus précises, de meilleure qualité, quand d’autres modèles vont multiplier les données et les diversifier. Phi-2 s’appuie naturellement sur sa version précédente, Phi-1.5, qui comporte 1,3 milliard de paramètres. Sur son blog, Microsoft raconte que l’entraînement de Phi-2 a duré 14 jours et a demandé 96 GPU Nvidia A100. Comptez 20 000 dollars par carte graphique de ce type : ce produit est spécialisé dans la formation de modèles d’IA.

Le degré de toxicité de Phi-2 par rapport aux autres LLM envers diverses communautés // Source : Microsoft

Le fait de traiter les données en amont de manière plus attentive permet aussi d’avoir un modèle moins toxique. C’est en tout cas la conclusion de Microsoft, qui constate un meilleur comportement de Phi-2 par rapport à d’autres modèles open-source qui ont pourtant été entraînés avec du renforcement humain.

Un modèle d’IA que vous n’utiliserez probablement pas

Au final, Phi-2 est plus performant dans certaines tâches que le modèle de Mistral AI ou bien que LLaMA-2 à 7 ou 13 milliards de paramètres. Le SLM va même plus loin que la version à 70 milliards de paramètres de Meta pour « les tâches de raisonnement en plusieurs étapes, c’est-à-dire le code et les mathématiques. » Concernant Gemini Nano, version la plus petite du LLM de Google annoncé récemment, Phi-2 le surpasse ou l’égale, malgré une traille plus petite encore une fois.

« Performances moyennes sur des benchmarks groupés par rapport aux SLM open source populaires » // Source : Microsoft

Pour autant, Microsoft n’imagine pas mettre à disposition du grand public Phi-2, via un chatbot à l’instar de Copilot par exemple. La société le voit davantage comme « un terrain de jeu idéal pour les chercheurs, notamment pour l’exploration de l’interprétabilité mécaniste, l’amélioration de la sécurité ou le réglage de fin d’expérimentation sur une variété de tâches. » Phi-2 est en fait disponible dans Azure AI Studio, son service de modèles d’IA.


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !