Voici Google Trillium, une puce IA révolutionnaire qui propulse Gemini 2.0

 
Google vient de présenter Trillium, sa puce d’intelligence artificielle de sixième génération, qui marque une avancée majeure dans le domaine du calcul IA. Cette nouvelle puce, qui a servi à l’entraînement du récent modèle Gemini 2.0, offre des performances quatre fois supérieures à la génération précédente.

Sundar Pichai, PDG de Google, a annoncé que les TPU Trillium ont été utilisés pour l’intégralité de l’entraînement et de l’inférence de Gemini 2.0. Au total, ce sont plus de 100 000 puces Trillium qui sont interconnectées au sein d’un même réseau, créant l’un des superordinateurs IA les plus puissants au monde.

La puce affiche une augmentation de 4,7 fois des performances de calcul par rapport à son prédécesseur. Elle double également la capacité de mémoire à haute bande passante et la bande passante d’interconnexion entre les puces. Plus remarquable encore, elle réalise une amélioration de 67 % en efficacité énergétique, un aspect crucial face à la consommation électrique croissante des data centers

Pour aller plus loin
La puce quantique de Google « ouvrirait une fenêtre sur les univers parallèles » : vrai ou faux ?

Trillium pourrait être un tournant pour l’IA

Mark Lohmeyer, vice-président de l’infrastructure de calcul et d’IA chez Google Cloud, met en avant les capacités de mise à l’échelle exceptionnelles de Trillium. Les tests sur le modèle Llama-2-70B démontrent une efficacité de mise à l’échelle de 99 %, un excellent résultat pour le calcul distribué à cette échelle.

L’impact économique de Trillium pourrait donc être considérable. Google affirme que la puce offre une amélioration de 2,5 fois des performances d’entraînement par dollar investi. Cette efficacité pourrait transformer l’accessibilité du développement IA pour les entreprises et les startups.

L’infrastructure IA Hypercomputer de Google, qui intègre ces puces Trillium, est un système qui combine les puces avec un réseau Jupiter capable de gérer 13 pétabits par seconde de bande passante bisectionnelle, permettant des tâches d’entraînement distribuées à une échelle sans précédent.

Bien que Nvidia reste la référence pour de nombreuses applications, l’approche sur mesure de Google pourrait offrir des avantages spécifiques, notamment pour l’entraînement de très grands modèles. Il reste maintenant à voir comment va réagir Nvidia, qui prépare à son tour ses propres CPU avec des puces ARM.


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !

Les derniers articles