Un mythe s’effondre, une requête ChatGPT ne brûle pas plus d’énergie qu’une simple recherche Google

 
Une nouvelle étude bouleverse tout ce que nous pensions savoir sur la consommation énergétique de ChatGPT. Les chiffres sont formels : l’IA est bien plus économe que prévu.

Une nouvelle étude d’Epoch AI, relayée par TechCrunch, bouleverse les estimations précédentes concernant la consommation énergétique de ChatGPT. Les chiffres révélés contredisent toutes les hypothèses initiales.

Au cœur des calculs

La découverte majeure de cette étude réside dans un chiffre : 0,3 wattheure par requête pour GPT-4o.

Ce résultat, dix fois inférieur aux estimations initiales de 3 Wh, s’explique par une série d’avancées technologiques et une meilleure compréhension du fonctionnement réel des systèmes.

Les anciennes estimations reposaient sur des hypothèses maximalistes, notamment l’idée que les serveurs fonctionnaient constamment à pleine puissance avec des puces Nvidia A100. La réalité s’avère bien différente.

Les nouveaux calculs prennent en compte une utilisation plus réaliste des serveurs, fonctionnant à 70 % de leur capacité. L’adoption des puces Nvidia H100, plus performantes, a également joué un rôle essentiel dans cette amélioration.

Ces puces offrent une efficacité énergétique supérieure de 60 % par rapport à leurs prédécesseurs. Les temps de repos entre les requêtes sont désormais intégrés aux calculs, tout comme la longueur réelle moyenne des réponses, bien plus courte qu’initialement estimé.

Ce que ça donne au quotidien

Pour donner du sens à ces chiffres, comparons avec nos usages quotidiens. Une requête ChatGPT consomme autant qu’une recherche Google classique, soit 0,3 Wh.

C’est significativement moins que la charge quotidienne d’un iPhone 15 qui nécessite 4,7 Wh, ou qu’une heure de télévision consommant 120 Wh.

Cette mise en perspective permet de comprendre que l’intelligence artificielle, contrairement aux idées reçues, ne représente pas un gouffre énergétique à l’échelle individuelle.

Cela reste un enjeu important

Malgré ces chiffres encourageants, la consommation annuelle projetée de ChatGPT atteindrait 226,8 GWh, l’équivalent de la charge complète de plus de trois millions de voitures électriques.

Surtout que les experts anticipent un doublement de la consommation d’ici 2026, poussé par l’adoption croissante de l’intelligence artificielle dans tous les secteurs.

Mais la quête d’efficacité énergétique ne s’arrête pas aux infrastructures. OpenAI, DeepSeek mais aussi Mistral explorent activement cette voie avec le développement de modèles de raisonnement plus sobres, comme le o3-mini.

Cette approche, bien que prometteuse, se heurte à un paradoxe : les gains d’efficacité peinent à compenser l’augmentation des besoins énergétiques liés au processus de « réflexion » de ces modèles, surtout avec les nouveaux modèles de raisonnement (DeepSeek r1, OpenAI o1) qui fournissent des réponses plus profondes et plus structurées.


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !