Apple Intelligence n’est pas entraîné par qui vous croyez

On vous donne un indice : TPU...

 
Contrairement à de très nombreuses IA, Apple Intelligence n’utilise pas les technologies de Nvidia pour s’entraîner. À la place, Apple mise en fait sur les services d’un autre géant de la Tech qui est pourtant l’un de ses concurrents sur le marché mobile.
Source : Apple

Leader quasi incontesté sur le terrain des équipements utilisés pour entrainer des modèles d’IA génératives (les fameux LLM), Nvidia fournit ses services et ses technologies à de très nombreux acteurs du marché.

On apprend toutefois cette semaine, que pour son IA « Apple Intelligence », dévoilée lors de la dernière WWDC et lancée il y a peu en bêta, Apple n’aurait pas choisi les solutions du géant au caméléon.

À la place, la marque emploie celles d’un de ses plus grands rivaux sur le marché mobile : Google. C’est en tout cas ce que rapporte CNBC dans un article publié ce 29 juillet.

On y apprend que pour entraîner ses propres modèles d’IA, Apple utilise depuis plusieurs années les TPUs (Tensor Processing Units) de Google. Pour le dire différemment : les puces customs de la firme de Mountain View.

Apple Intelligence entraînée… par les puces de Google

En l’occurrence, ces puces Tensor ne doivent pas être confondues avec les SoC Tensor « G » installés à bord des différents smartphones Google Pixel.

Ces puces sont ce que l’on appelle des « Application-Specific Integrated Circuits » et ont été développées spécifiquement par Google pour traiter de la donnée.

Elles sont d’ailleurs utilisées depuis 2015 au sein des data centers du groupe et sont par ailleurs accessibles aux entreprises tierces depuis 2017. Depuis cette date, Google concurrence donc Nvidia et ses solutions vouées à l’entraînement des LLMs.

Un TPU v3, à gauche, et un Cloud TPU v3 à droite, pour illustration // Source : Google

Et tandis que Microsoft, OpenAI ou encore Anthropic (fondé en 2021 par d’anciens cadres d’OpenAI) ne font aucun secret de leur dépendance à Nvidia et ses solutions pour l’entraînement de leurs IA respectives, Apple a pour sa part opté pour la concurrence, et donc pour Google.

Plus spécifiquement, la firme explique, dans un document technique consulté par CNBC, utiliser des « clusters Cloud TPU v4 et v5p », pour les travaux lourds et afin de former les modèles Apple Foundation. Pour rappel, les TPUs v5p sont les tout derniers lancés par Google. Ils sont disponibles depuis décembre dernier seulement.

Notons que la publication de ce document technique par Apple n’est pas anodine. Par ce biais, la firme nous envoie un signal.

En avouant utiliser les solutions les plus avancées de Google (voire même la puce la plus récente à ce jour) pour entraîner Apple Intelligence, Cupertino dit en substance que si elle est entrée dans le bal de l’IA un peu tard par rapport à ses concurrents, elle se donne désormais tous les moyens de faire des progrès éclairs sur ce terrain.


Des invités passionnants et des sujets palpitants ! Notre émission UNLOCK est à retrouver un jeudi sur deux en direct, de 17 à 19h sur Twitch. Pensez aussi aux rediffusions sur YouTube !

Les derniers articles