Derrière chaque interaction courtoise avec une IA se cache un coût énergétique surprenant. Une ironie moderne que Sam Altman ne manque pas de souligner avec humour.
« S’il vous plaît », « merci »… Ces quelques mots, anodins dans la vie quotidienne, deviennent coûteux lorsqu’ils sont adressés à ChatGPT. Le PDG d’OpenAI, Sam Altman, l’a rappelé récemment sur X (ex-Twitter) : la politesse envers une intelligence artificielle n’est pas sans conséquences, notamment sur la facture énergétique de l’entreprise. Une simple requête apparemment banale mobilise des ressources informatiques colossales. Multipliez cela par des millions d’interactions, et vous obtenez des dizaines de millions de dollars engloutis chaque année dans une amabilité numérique… un brin ironique.
Une salutation vaut dix fois plus qu’une recherche Google
Ce gouffre financier s’explique par la nature même du fonctionnement de ChatGPT. Là où une recherche Google trie simplement des pages en fonction de mots-clés, l’IA générative analyse, interprète, reformule et contextualise les données. Autrement dit : elle pense. Un processus bien plus gourmand en calculs, donc en énergie. Selon l’Agence internationale de l’énergie, une simple demande envoyée à ChatGPT consommerait jusqu’à dix fois plus d’électricité qu’une recherche classique.
Et cette débauche d’énergie ne concerne pas uniquement les requêtes complexes. Même un « bonjour » ou un « comment vas-tu ? » déclenche une chaîne de calculs identique. Derrière l’illusion d’une conversation fluide, des centres de données surchauffés tournent à plein régime, à coups de GPU et de refroidissements continus.
De l’électricité… et de l’eau
Car oui, l’eau est l’autre ressource insoupçonnée mobilisée par chaque interaction avec une IA. Des chercheurs américains ont estimé qu’il faut environ un demi-litre d’eau pour générer entre dix et cinquante réponses. En cause : le refroidissement des serveurs qui traitent nos questions 24h/24. À l’échelle mondiale, les projections pour 2027 sont vertigineuses : jusqu’à 6,6 milliards de mètres cubes d’eau pourraient être nécessaires chaque année, soit plusieurs fois la consommation annuelle du Danemark.
Ce chiffre donne le vertige, surtout face à la crise hydrique qui s’installe dans de nombreuses régions du globe. L’idée même que nos conversations avec une IA contribuent à la pression sur les ressources en eau a de quoi faire réfléchir.
L’empreinte invisible de notre quête d’humanité numérique
En voulant rendre les IA plus humaines, nous créons un paradoxe écologique et éthique. Sam Altman, avec une pointe de sarcasme, évoque « l’investissement utile » que représente l’apprentissage de la courtoisie par les IA. Mais la réalité est moins légère : derrière l’humour se cache une prise de conscience. Celle d’un modèle économique et technologique extrêmement gourmand, dont l’impact environnemental devient difficile à ignorer.
Alors, faut-il arrêter de dire merci à ChatGPT ? Pas forcément. Mais il devient urgent de réfléchir aux arbitrages entre expérience utilisateur et sobriété numérique. Car à mesure que l’IA s’immisce dans notre quotidien, son empreinte écologique s’impose comme un enjeu central de son développement.