Derrière le succès de ChatGPT, une future galère pour les gamers sur PC

Le retour de la pénurie ?

 
Les capacités et bases de données immenses de ChatGPT ont fait des émules auprès des géants de la tech. Mais son développement a un coût en cartes graphiques qui pourrait bien être à l’origine d’une nouvelle pénurie de GPU.
Le développement de l’intelligence artificielle ChatGPT a nécessité 10 000 cartes graphiques//Source : Frandroid

Le marché des cartes graphiques se remet à peine de sa pénurie post-Covid qu’une nouvelle crise d’approvisionnement risque de se produire… et ChatGPT n’y est pas pour rien. C’est en tout cas ce que prophétise le média en ligne américain Techradar. En cause : la popularité grandissante de ces intelligences artificielles surpuissantes dans les usages personnels.

10 000 GPU pour créer ChatGPT

En effet, outre leur utilisation dans les jeux vidéo, les GPU (et plus précisément leurs cœurs dits Tensor, spécialisés dans les calculs pour intelligences artificielles) sont aussi utilisés dans les centres de données du monde entier. Un des modèles les plus connus est le GPU A100 de Nvidia.

Si la demande actuelle des data centers ne provoque pas de pénurie en elle-même, c’est la taille gigantesque des données utilisées par les IA comme ChatGPT qui fait craindre à Techradar une crise à venir. Puisqu’ils se basent sur des pans entiers de ce qui a été écrit sur Internet, ces énormes algorithmes sont appelés « grands modèles de langage » (ou LLM). Mais pour créer et maintenir les bases de données d’un LLM comme ChatGPT, il a fallu 10 000 processeurs graphiques de Nvidia, précise le média spécialisé Fierce Electronics — en plus d’un sous-traitant qui a fait polémique.

IA partout, cartes graphiques nulle part

Quand bien même un besoin de GPU à cette échelle reste rare, le risque serait de voir ces usages se généraliser si l’intégration de ces IA mastodontes dans nos services du quotidien suit l’appétit des géants de la tech. Début février, Microsoft a sorti une nouvelle version de son moteur de recherche Bing dans laquelle ChatGPT est directement intégrée.

Pourtant, selon deux analystes cités par le magazine économique américain Forbes, si Google souhaitait suivre la cadence et intégrer une IA similaire — telle que Google Bard — dans ses milliards de résultats de recherches quotidiens, il faudrait plus de 4,1 millions de GPU Nvidia A100 pour un coût total estimé à 100 milliards de dollars.

Une pénurie qui en rappelle une autre

Une telle demande provoquerait donc une importante hausse des prix des cartes graphiques, vendus aux plus offrants aux dépens des plus petites industries et du consommateur.

Une perspective qui rappelle la précédente pénurie de GPU, survenue à la suite d’une forte hausse de la demande post-pandémie de Covid-19, rapidement suivie par le développement du minage de cryptomonnaies. La situation n’est revenue à la normale que récemment, notamment grâce à l’évolution du fonctionnement de l’Ethereum et à la chute des valeurs de plusieurs autres grosses cryptomonnaies.

Une crise entre les mains de Nvidia

Seule lueur d’espoir : comme précisé plus tôt, généraliser l’usage d’IA aussi énergivores et coûteuses n’est pas rentable sur le long terme. L’accès à la nouvelle version de Bing avec ChatGPT reste aujourd’hui limité et, comme le pointe du doigt Forbes, même Microsoft devra trouver une alternative plus économe.

Mais le développement de ces algorithmes LLM ne va pas disparaitre pour autant. Le choix reste donc entre les mains des constructeurs de GPU spécialisés comme Nvidia : s’ils décident de se concentrer sur ce marché et jouer de leur avantage, les prix risquent de grimper rapidement.


Rendez-vous un mercredi sur deux sur Twitch, de 17h à 19h, pour suivre en direct l’émission SURVOLTÉS produite par Frandroid. Voiture électrique, vélo électrique, avis d’expert, jeux ou bien témoignages, il y en a pour tous les goûts !

Les derniers articles