L’intelligence artificielle révolutionne notre monde, mais à quel prix ? La consommation énergétique démesurée de ces technologies devient un problème majeur. ChatGPT, un chatbot conversationnel populaire, engloutit chaque jour 17.000 fois plus d’électricité qu’un foyer américain moyen. Un avenir durable pour l’IA est-il possible ?
Alors que l’intelligence artificielle (IA) révolutionne de nombreux domaines, une ombre plane sur son développement : sa consommation énergétique démesurée. Une étude récente révèle que ChatGPT, le chatbot conversationnel populaire, engloutit chaque jour 17 000 fois plus d’électricité qu’un foyer américain moyen.
Cela signifie que ce bijou technologique avide d’énergie consomme l’équivalent de 493 000 kilowattheures par jour, soit une hérésie écologique. À titre de comparaison, la consommation quotidienne moyenne d’un foyer américain s’élève à seulement 29 kilowattheures.
ChatGPT : un chatbot à l’appétit insatiable d’électricité
Cette voracité énergétique inquiète d’autant plus que l’IA est en plein essor. Si l’on considère la croissance exponentielle du secteur et son adoption à grande échelle, la situation risque de devenir critique.
Alex de Vries, un scientifique des données à la Banque Nationale néerlandaise, prévoit une consommation annuelle du secteur de l’IA pouvant atteindre 85 à 134 térawattheures d’ici 2027. Ce chiffre colossal représente près de 0,5 % de la consommation électrique mondiale. À tel point que l’industrie réfléchit à des réacteurs nucléaires pour faire face à la demande énergétique des centres de données.
À titre d’illustration, l’intégration de l’IA dans chaque recherche Google se traduirait par une consommation annuelle de 29 milliards de kilowattheures, dépassant la consommation électrique de pays entiers. Ces chiffres alarmants soulèvent des questions cruciales sur la capacité de notre infrastructure électrique à soutenir le développement de l’IA.
Outre la consommation d’énergie, le coût de fonctionnement de ces technologies est exorbitant. OpenAI, la société derrière ChatGPT, dépense quotidiennement 700 000 dollars pour maintenir son chatbot en activité. Ces dépenses faramineuses s’ajoutent à la nécessité d’un refroidissement constant, chaque requête de ChatGPT nécessitant une bouteille d’eau pour dissiper la chaleur (et autant qu’un réacteur nucléaire pour son entraînement).
L’exemple de ChatGPT n’est pas isolé. D’autres modèles d’IA comme Microsoft Copilot pourraient, selon certaines études, consommer suffisamment d’énergie pour alimenter un petit pays d’ici 2027.
Face à ce constat, la question de la viabilité du développement de l’IA se pose. Comment concilier le progrès technologique avec la nécessité de préserver l’environnement ?
- L’IA est gourmande en énergie : ChatGPT consomme 17 000 fois plus d’électricité qu’un foyer américain.
- D’ici 2027, l’IA pourrait consommer 0,5% de l’électricité mondiale.
- Des solutions durables sont nécessaires pour concilier progrès technologique et protection de l’environnement.
Sources : NewYorker, Digiconomist