Pourquoi l’Intelligence Artificielle est un gouffre énergétique

L’essor fulgurant de l’intelligence artificielle générative – comme l’Américain ChatGPT, le Chinois DeepSeek ou les outils de génération d’images – cache une réalité bien moins séduisante : son extrême voracité énergétique.

Un exemple frappant est survenu fin mars 2025, lorsque l’intégration d’une option de génération d’images dans ChatGPT a provoqué un afflux massif d’utilisateurs. Sam Altman, PDG d’OpenAI, a reconnu que les serveurs peinaient à suivre la cadence, évoquant même un risque de pannes. La popularité du style visuel du Studio Ghibli, reproduit par l’IA, a attiré plus d’un million de nouveaux inscrits en une heure.

Mais cette explosion des usages n’est pas sans conséquences. Selon l’Agence internationale de l’énergie (AIE), la consommation électrique des centres de données – moteurs physiques de l’IA – devrait plus que doubler d’ici 2030, atteignant près de 945 térawattheures, soit davantage que la consommation actuelle du Japon. Cela représenterait près de 3 % de l’électricité mondiale.

Aux États-Unis, les data centers sont déjà à l’origine de près de la moitié de la croissance attendue de la demande d’électricité. Les grands projets se multiplient : le programme Stargate, soutenu par Donald Trump, prévoit 10 nouveaux centres de données pour un coût total de 500 milliards de dollars. Meta et Microsoft, quant à eux, envisagent de connecter leurs infrastructures directement à des centrales nucléaires pour sécuriser leur approvisionnement énergétique.

Alors que les modèles d’IA deviennent omniprésents – intégrés à Bing, WhatsApp, et bientôt Google – se pose une question urgente : le coût environnemental de cette révolution technologique est-il soutenable ?

Avec Lemonde/Léa Prati et Romain Geoffroy

Commentaires Facebook

Laisser un commentaire