Dire “merci” à ChatGPT coûte des millions : l’impact énergétique caché de nos politesses numériques

Dites vous "Bonjour" ou "Merci" à ChatGPT ? Cette habitude est-elle anodine ou une aberration énergétique ? Derrière chaque politesse adressée aux modèles de langage se cache une consommation électrique mesurable. Une étude de Sasha Luccioni, Julien Delavande et Régis Pierrard révèle que ces courtoisies automatiques, dénuées de sens pour les machines, génèrent un coût environnemental substantiel à l'échelle planétaire.

L’aveu de Sam Altman 1 sonne comme une révélation un peu honteuse. Le PDG d’OpenAI a confié en avril dernier que les simples “s’il vous plaît” et “merci” adressés à ChatGPT avaient engendré des dizaines de millions de dollars de coûts pour OpenAI. Cette confidence, motivée par les soucis d’économie davantage que par la pédagogie, soulève une interrogation fondamentale sur nos interactions automatisées avec l’intelligence artificielle.

Contrairement aux humains, les modèles de langage ne conservent aucune trace mnésique des conversations une fois celles-ci terminées. Chaque remerciement déclenche pourtant un processus d’inférence complet mobilisant des milliards de paramètres — un paradoxe technologique où la politesse devient computationnellement vaine.

L’équation énergétique d’une courtoisie digitale

Des chercheurs ont quantifié cette aberration en créant un jeu de données personnalisé comprenant des milliers de conversations se concluant par un “merci”. Leurs mesures sur un modèle LLaMA 3-8B révèlent une consommation énergétique surprenante pour ce geste apparemment insignifiant.

Un unique remerciement mobilise en moyenne 0,245 wattheures — soit l’équivalent d’une ampoule LED de 5 watts alimentée pendant trois minutes. Cette énergie se répartit de manière inégale : le processeur graphique accapare 0,202 wattheures, tandis que le processeur central et la mémoire vive se contentent respectivement de 0,024 et 0,019 wattheures.

L’analyse statistique dévoile une variabilité considérable — avec un écart-type de 0,096 wattheures pour le GPU — suggérant une sensibilité extrême aux conditions d’exécution. Certaines générations consomment substantiellement plus que la moyenne, créant une distribution asymétrique aux queues particulièrement étendues.

Quand la taille du modèle multiplie l’empreinte carbone

L’expérimentation s’est étendue aux modèles de la famille Qwen 2.5 — depuis 0,5 milliard jusqu’à 14 milliards de paramètres — ainsi qu’aux architectures LLaMA 3.1-8B et Mistral-7B. Un phénomène contre-intuitif émerge : les modèles volumineux génèrent systématiquement des réponses plus prolixes, multipliant d’autant leur appétit énergétique.

Les mesures révèlent une progression non-linéaire de la consommation. Si les modèles compacts privilégient l’efficience, leurs homologues de grande taille — comme le Qwen 14B — engloutissent trois à quatre fois plus d’énergie par interaction, compensant leur expressivité accrue par une voracité électrique proportionnelle.

Cette escalade énergétique interroge les arbitrages technologiques actuels, où la quête de performances linguistiques sophistiquées se heurte aux impératifs de sobriété numérique.

Des millions d’interactions, des mégawattheures gaspillés

L’extrapolation à l’échelle industrielle dévoile l’ampleur vertigineuse du phénomène. Les déploiements propriétaires mobilisant plusieurs centaines de milliards de paramètres consomment entre 1 et 5 wattheures par interaction polie. Cette estimation — probablement conservatrice — néglige les surcoûts infrastructurels : refroidissement des centres de données, latence réseau, temps d’inactivité des serveurs.

Les optimisations de production, notamment le traitement par lots dynamique — capable de réduire la consommation unitaire de 10 à 15 fois — tempèrent partiellement cette inflation énergétique. Néanmoins, l’intensité géographique du réseau électrique et les spécificités matérielles influencent considérablement l’empreinte carbone finale.

À l’échelle de millions d’interactions quotidiennes, le coût agrégé de la politesse numérique pourrait atteindre plusieurs mégawattheures journaliers. Cette estimation équivaut à l’alimentation électrique de centaines de foyers — pour des courtoisies fondamentalement inutiles aux machines destinataires.

Les géants technologiques, en encourageant tacitement ces interactions humanisées, externalisent-ils sur leurs utilisateurs et la planète le coût environnemental de leurs interfaces conversationnelles ? Cette dynamique révèle-t-elle une faille structurelle dans notre rapport aux intelligences artificielles, où l’anthropomorphisation spontanée génère des externalités énergétiques massives ?

  1. Sam Altman Admits That Saying “Please” and “Thank You” to ChatGPT Is Wasting Millions of Dollars in Computing Power, Futurism, 19 avril 2025 ↩︎
Partager cet article
URL partageable
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire la suite
Abonnez-vous à la newsletter
Gardez un oeil critique sur la tech !