Ce géant de la tech laisse planer le doute d’une nouvelle pénurie de composants

Cela dit, Micron se frotte les mains

 
En passe de devenir un acteur incontournable sur le marché de la mémoire vive à large bande-passante, Micron indique que ses puces HBM3E seront toutes vendues pour 2024, voire même 2025. Une annonce qui laisse planer une ombre sur l’approvisionnement en GPU à moyen terme.
La mémoire HBM3E rencontre un franc succès chez Micron // Source : Laura Ockel – Unsplash

Jusqu’à présent acteur secondaire sur le marché de la mémoire vive à large bande-passante (HBM), Micron fait une percée sur ce terrain grâce à sa nouvelle mémoire HBM3E. Or, les dernières déclarations du groupe laissent entendre que l’approvisionnement en puces de ce type risque de se tarir à moyen terme. Une situation gênante, car elle pourrait induire un goulot d’étranglement potentiel dans la production de GPU dédiés notamment à l’intelligence artificielle, rapporte Tom’s Hardware.

On apprend par ailleurs que la production à plein régime de mémoire HBM3E, très gourmande en wafers (ces galettes de silicium nécessaires à la fabrication des semi-conducteurs), pourrait aussi avoir des conséquences directes sur l’approvisionnement en mémoire DRAM, utilisée pour sa part sur de très nombreux appareils grand public. En d’autres termes, la piste d’une nouvelle pénurie de composants n’est pas à exclure — à l’instar de celle que l’on a connue après le Covid.

La mémoire HBM3E, critique pour Nvidia et ses GPU voués à l’IA

« Notre mémoire HBM est épuisée pour l’année 2024, et la grande majorité de notre offre pour 2025 a déjà été allouée », a notamment indiqué Sanjay Mehrotra, directeur général de Micron lors de l’annonce des derniers résultats du groupe, cette semaine. Pour contexte, la mémoire HBM3E de Micron (qui est la première entreprise au monde à exploiter commercialement ce type de mémoire vive), est notamment utilisée par le nouveau GPU H200 de Nvidia, voué à l’IA et aux supercalculateurs.

Pour la fabrication de chaque carte graphique H200, Nvidia utilise pas moins de six puces HBM3E, ce qui devrait permettre à Micron de s’accaparer une large part de marché sur le terrain de la mémoire HBM… au risque d’atteindre rapidement les limites de sa capacité de production, même si le groupe se veut rassurant.

Source : Micron

Sur le plan technique, les puces HBM3E de Micron sont actuellement des modules 8Hi de 24 Go, offrant un taux de transfert de données de 9,2 GT/s et une bande passante mémoire de plus de 1,2 To/s par dispositif. En utilisant six de ces puces par GPU H200, Nvidia lui permet ainsi de totaliser pas moins de 141 Go de mémoire HBM3E.

On sait néanmoins que Micron compte aller plus loin en la matière. Sa prochaine génération de puces mémoire HBM « 12Hi » devrait en effet permettre d’augmenter la capacité de 50 %, pour passer à 36 Go, et ainsi permettre à l’IA d’entraîner des modèles de langage toujours plus vastes.

Comme évoqué plus haut, cette course technologique et industrielle pour la mémoire HBM pourrait par contre induire des problèmes de production pour les modules DRAM plus classiques, employés à bien plus large échelle.

La carte graphique Nvidia H200 // Source : Nvidia

« Étant donné que la fabrication de modules HBM implique la production de DRAM spécialisée, la montée en puissance des puces HBM affectera considérablement la capacité de Micron à fabriquer des circuits intégrés DRAM pour les applications courantes », explique notamment Tom’s Hardware.

Un problème que Micron a d’ores et déjà admis. « La montée en puissance de la production d’HBM limitera la croissance de l’offre de produits non HBM », a en effet précisé Sanjay Mehrotra. « Dans l’ensemble de l’industrie, la mémoire HBM3E consomme environ trois fois plus de wafers que le standard DDR5 (…) ». Voilà qui est dit… et cela nous pousse à craindre d’éventuelles pénuries l’année prochaine.


Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !

Les derniers articles