ChatGPT a consommé autant d’eau qu’un réacteur nucléaire pour son entraînement

Une nouvelle étude menée par deux universités américaines vient lever le voile sur la consommation en eau des intelligences artificielles. On y apprend que l’entraînement de GPT-3 aurait nécessité l’équivalent d’une tour de refroidissement de centrale nucléaire.

IA ChatGPT eau Centrale nucléaire

Tout comme les voitures hybrides rechargeables, les IA telles que ChatGPT d’OpenAI ou Bard de Google sont des catastrophes écologiques. Ces programmes sont extrêmement gourmands en énergie, car ils nécessitent d’énormes centres de données pour fournir suffisamment de puissance de calcul pour les entraîner.

Le refroidissement de ces superordinateurs consomme énormément d’eau. Une nouvelle étude menée par l’Université de Riverside et l’Université d’Alrington indique que la formation du modèle GPT-3 d’OpenAI a consommé 700 000 litres d’eau. L’échange moyen entre ChatGPT et un utilisateur équivaut à jeter une bouteille d’eau de 50 cl par la fenêtre. Compte tenu de la popularité sans précédent du chatbot, les chercheurs craignent que cette consommation n’ait un impact inquiétant sur les réserves d’eau, en particulier dans un contexte de sécheresse historique et d’incertitude environnementale.

ChatGPT a soif, très soif et les autres IA aussi

Les chercheurs ont effectué ces estimations dans un effort de « Rendre l’IA moins assoiffée », du nom de leur article universitaire : Making AI Less Thirsty. Ses auteurs ont constaté que la quantité d’eau douce claire nécessaire pour entraîner GPT-3 a été équivalente à la quantité nécessaire pour remplir la tour de refroidissement d’un réacteur nucléaire.

OpenAI n’a pas divulgué le temps nécessaire pour former GPT-3, ce qui complique les estimations des chercheurs. Cependant, Google dévoilait récemment le supercalculateur qui a formé l’IA Bard et le nombre de GPU donnait le tournis : 4 000 cartes équivalentes au A100 de Nvidia qui se vend à 20 000 euros. Cela donne un aperçu des échelles.

Les estimations des chercheurs s’établissent sur la base d’un entraînement qui se serait déroulé dans le centre de données américain ultramoderne de Microsoft. Si l’entraînement s’était déroulé dans le centre de données asiatique moins économe en énergie d’OpenAI, la consommation d’eau pourrait être trois fois plus élevée. Les scientifiques affirment que ces besoins en eau augmenteront encore avec l’entraînement de nouveaux modèles comme GPT-5, qui sera encore plus proche de l’intelligence humaine.

« L’empreinte hydrique des modèles d’IA ne peut plus rester sous le radar », déclare les chercheurs. « L’empreinte hydrique doit être traitée en priorité dans le cadre des efforts collectifs visant à lutter contre les défis mondiaux liés à l’eau. » À l’heure où nous serons bientôt 9 milliards sur Terre, peut-être le milliard de trop, on ne peut que leur donner raison. Pourtant la course ne semble que commencer : Elon Musk veut son IA pour Twitter et il achète des milliers de GPU.

Source : Université de Riverside et Université d’Arlington