Une récente analyse du MIT Technology Review 1 lève le voile sur la consommation énergétique réelle de l'intelligence artificielle. Derrière chaque requête apparemment anodine se cache une réalité préoccupante : l'IA représente déjà 4,4% de la consommation électrique américaine et pourrait atteindre l'équivalent de la consommation de 22% des foyers d'ici 2028 2.
En 2017, les centres de données semblaient avoir atteint un plateau énergétique stable — une décennie d’efficacité croissante compensait la multiplication des infrastructures numériques. Cette accalmie masquait pourtant l’émergence silencieuse d’une révolution qui allait tout bouleverser. L’intelligence artificielle venait de franchir un seuil critique, amorçant une spirale de consommation qui doublerait l’appétit électrique des data centers en six ans seulement.
Une analyse inédite du MIT Technology Review — menée auprès de deux douzaines d’experts et s’appuyant sur des centaines de pages de rapports et de projections — révèle l’ampleur véritable de cette transformation énergétique. Les conclusions dessinent un paysage où les requêtes quotidiennes aux chatbots ne constituent que la partie visible d’un iceberg dont les ramifications redéfinissent déjà nos grilles électriques nationales.
Des requêtes individuelles aux besoins industriels massifs
L’exercice de quantification tenté par le MIT sous la direction de Sasha Luccioni, informaticienne spécialisée à l’intersection de l’intelligence artificielle et du changement climatique, révèle des ordres de grandeur vertigineux. Une simple interaction textuelle avec le modèle Llama 3.1 de Meta — celui comptant 8 milliards de paramètres — nécessite environ 114 joules d’énergie totale. Modeste en apparence, cette consommation se transforme radicalement avec les modèles plus sophistiqués : le Llama 3.1 405B engloutit 6 706 joules par réponse, soit près de soixante fois davantage.
La génération d’images amplifie encore cette progression — une création standard via Stable Diffusion 3 Medium mobilise 2 282 joules. Mais c’est la vidéo qui pulvérise tous les compteurs : produire cinq secondes avec CogVideoX exige 3,4 millions de joules, soit plus de 700 fois l’énergie d’une image de qualité équivalente.
Ces mesures, effectuées sur des modèles open source analysables en laboratoire, offrent un aperçu tangible d’une réalité que les géants technologiques gardent jalousement secrète. Car derrière ces chiffres individuels se profile une mécanique industrielle d’une tout autre ampleur : ChatGPT traite désormais un milliard de messages quotidiens — se classant au cinquième rang mondial des sites les plus visités — tandis qu’OpenAI génère 78 millions d’images par jour depuis mars dernier.
L’opacité calculée des géants technologiques
« Les fournisseurs de modèles d’IA fermés servent une boîte noire totale », dénonce Boris Gamazaychikov, responsable de la durabilité IA chez Salesforce dans l’article du MIT. Cette opacité ne relève pas de l’accident technique, mais d’une stratégie délibérée de protection commerciale. OpenAI, Google, Microsoft et Anthropic — les architectes de cette révolution — refusent systématiquement de divulguer les métriques énergétiques de leurs modèles phares.
L’intensité carbone de l’électricité alimentant les centres de données dépasse de 48% la moyenne nationale américaine, selon une étude prépubliée de Harvard 3. Cette surreprésentation s’explique par la concentration géographique des infrastructures dans des régions comme la Virginie — où le charbon et le gaz naturel dominent encore le mix énergétique — et par le fonctionnement continu des serveurs, incompatible avec l’intermittence des renouvelables.
Les entreprises technologiques tentent de compenser cette dépendance fossile par des annonces spectaculaires : Meta, Amazon et Google promettent de tripler la capacité nucléaire mondiale d’ici 2050. Mais ces projets, nécessitant des décennies de développement, masquent mal l’urgence immédiate. En attendant, des solutions d’appoint problématiques émergent — comme les générateurs au méthane non autorisés découverts chez X d’Elon Musk près de Memphis, présumément en violation du Clean Air Act.
Vers une explosion énergétique sans précédent
L’article du MIT met en avant les projections du Lawrence Berkeley National Laboratory — laboratoire financé par le département de l’Énergie et couronné de seize prix Nobel — qui dessinent un horizon préoccupant. D’ici 2028, la consommation dédiée à l’IA pourrait atteindre 326 térawatts-heures annuels, équivalant à l’alimentation électrique de 22% des foyers américains.
Cette escalade accompagne une mutation qualitative des usages. L’avenir proche ne se contentera plus de requêtes ponctuelles, mais intégrera des « agents » autonomes fonctionnant en permanence, des modèles de « raisonnement » — consommant 43 fois plus d’énergie pour des tâches simples — et des systèmes personnalisés entraînés sur nos données individuelles. OpenAI propose déjà des agents à 20 000 dollars mensuels, tandis que DeepSeek popularise des modèles générant neuf pages de texte par réponse.
En bout de chaine, les coûts se reportent vers les consommateurs ordinaires. Une recherche de Harvard révèle que les accords entre géants technologiques et compagnies d’électricité font peser sur les particuliers le financement de cette infrastructure — jusqu’à 37,50 dollars mensuels supplémentaires en Virginie 4.
L’initiative Stargate — partenariat à 500 milliards de dollars entre OpenAI et l’administration Trump — prévoit dix centres de données de cinq gigawatts chacun. Une puissance dépassant la demande totale du New Hampshire, pour un investissement supérieur au programme Apollo.
Et en France ?
Ces travaux du MIT questionnent l’impact des datacenters et plus encore quelques jours après les annonces répétées en France par Emmanuel Macron au sortir du sommet Choose France où trois géants ont confirmé leurs ambitions hexagonales. Brookfield — acteur canadien — matérialise un engagement décennal de 10 milliards autour d’un projet de Campus IA à Cambrai d’1 gigawatt, Digital Realty concentre 2,3 milliards d’investissement américain pour implanter des data centers à Marseille et Dugny en Seine-Saint-Denis.
Des annonces qui suivent celles du Sommet pour l’IA en février 2025 et qui avait promis la mise en service de 35 datacenters partout en France d’ici à 2028 pour alimenter l’IA. Implantations accélérées et facilitées par des procédures amputées de certaines voies de recours et dont les conséquences environnementales n’ont pas été démocratiquement disuctées comme le dénonce la Quadrature du Net qui appelle à un moratoire le temps d’informer les populations. 5
- We did the math on AI’s energy footprint. Here’s the story you haven’t heard, MIT Technology Review, 20 mai 2025 ↩︎
- DOE Releases New Report Evaluating Increase in Electricity Demand from Data Centers, 20, décembre 2024 ↩︎
- Environmental Burden of United States Data Centers in the Artificial Intelligence Era, 14 novembre 2024 ↩︎
- Data Centers in Virginia, 9 décembre 2025 ↩︎
- Mobilisation pour un moratoire sur les gros data centers, 6 mai 2025 ↩︎