![](https://c0.lestechnophiles.com/images.frandroid.com/wp-content/uploads/2025/02/image-45-1200x771-1.jpg?resize=1200&key=43405cb5&watermark)
Une nouvelle étude d’Epoch AI, relayée par TechCrunch, bouleverse les estimations précédentes concernant la consommation énergétique de ChatGPT. Les chiffres révélés contredisent toutes les hypothèses initiales.
Au cœur des calculs
La découverte majeure de cette étude réside dans un chiffre : 0,3 wattheure par requête pour GPT-4o.
Ce résultat, dix fois inférieur aux estimations initiales de 3 Wh, s’explique par une série d’avancées technologiques et une meilleure compréhension du fonctionnement réel des systèmes.
Les anciennes estimations reposaient sur des hypothèses maximalistes, notamment l’idée que les serveurs fonctionnaient constamment à pleine puissance avec des puces Nvidia A100. La réalité s’avère bien différente.
Les nouveaux calculs prennent en compte une utilisation plus réaliste des serveurs, fonctionnant à 70 % de leur capacité. L’adoption des puces Nvidia H100, plus performantes, a également joué un rôle essentiel dans cette amélioration.
Ces puces offrent une efficacité énergétique supérieure de 60 % par rapport à leurs prédécesseurs. Les temps de repos entre les requêtes sont désormais intégrés aux calculs, tout comme la longueur réelle moyenne des réponses, bien plus courte qu’initialement estimé.
Ce que ça donne au quotidien
Pour donner du sens à ces chiffres, comparons avec nos usages quotidiens. Une requête ChatGPT consomme autant qu’une recherche Google classique, soit 0,3 Wh.
![](https://images.frandroid.com/wp-content/uploads/2025/02/image-44.png)
C’est significativement moins que la charge quotidienne d’un iPhone 15 qui nécessite 4,7 Wh, ou qu’une heure de télévision consommant 120 Wh.
Cette mise en perspective permet de comprendre que l’intelligence artificielle, contrairement aux idées reçues, ne représente pas un gouffre énergétique à l’échelle individuelle.
Cela reste un enjeu important
Malgré ces chiffres encourageants, la consommation annuelle projetée de ChatGPT atteindrait 226,8 GWh, l’équivalent de la charge complète de plus de trois millions de voitures électriques.
Surtout que les experts anticipent un doublement de la consommation d’ici 2026, poussé par l’adoption croissante de l’intelligence artificielle dans tous les secteurs.
Mais la quête d’efficacité énergétique ne s’arrête pas aux infrastructures. OpenAI, DeepSeek mais aussi Mistral explorent activement cette voie avec le développement de modèles de raisonnement plus sobres, comme le o3-mini.
Cette approche, bien que prometteuse, se heurte à un paradoxe : les gains d’efficacité peinent à compenser l’augmentation des besoins énergétiques liés au processus de « réflexion » de ces modèles, surtout avec les nouveaux modèles de raisonnement (DeepSeek r1, OpenAI o1) qui fournissent des réponses plus profondes et plus structurées.
Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix