Google affirme que son dernier modèle d’IA générative, Gemini, réduit drastiquement son empreinte énergétique et carbone. Les chercheurs, eux, demandent à voir derrière la vitrine.
Comment mesurer l’impact écologique d’un assistant IA ?
Le rapport technique publié par Google sur Gemini met en avant une consommation record à la baisse. Une requête textuelle médiane coûterait 0,24 wattheure d’électricité, soit neuf secondes d’usage d’un téléviseur, et dégagerait 0,03 gramme de CO2. Quant au refroidissement des serveurs, il se traduirait par cinq gouttes d’eau en moyenne.
Pour obtenir ces chiffres, la firme souligne le renouvellement du matériel, des algorithmes plus sobres, une gestion plus fine des infrastructures et l’intégration des machines inactives ou de la mémoire RAM dans ses calculs. Google rappelle aussi que le refroidissement pèse lourd dans la facture énergétique et hydrique de ses centres de données.
Quand les universitaires contestent les chiffres officiels
Cette communication ne convainc pas tout le monde. Shaolei Ren, professeur d’ingénierie informatique à l’université de Californie à Riverside, note que Google se concentre sur la consommation directe de ses data centers sans prendre en compte l’eau utilisée par les centrales électriques qui produisent l’énergie. Selon lui, intégrer cette étape ferait exploser les volumes, jusqu’à deux cents fois supérieurs à ceux avancés par la firme.
Autre voix critique, celle d’Alexander De Vries-Gao, doctorant à l’université d’Amsterdam. Il reproche à Google de mettre en avant ses achats massifs d’énergie verte via certificats et contrats, sans préciser si cette électricité est réellement consommée sur site. Pour lui, la communication masque ainsi l’impact local réel des infrastructures.
Gemini face aux estimations des anciens modèles
Malgré les critiques, les chiffres de Google marquent une rupture avec les estimations passées. Certaines études évoquaient jusqu’à 500 ml d’eau et plus de 2 g de CO2 pour une seule requête. Gemini affiche donc une baisse spectaculaire : 33 fois moins d’énergie et 44 fois moins de carbone en un an, selon l’entreprise.
La firme attribue ces résultats à l’optimisation de ses infrastructures et à la multiplication des contrats en énergie renouvelable, pour plus de 8 GW signés récemment. Mais la demande explose. Entre 2023 et 2024, la consommation électrique des data centers a bondi de 27 % sous l’effet de l’essor des usages liés à l’IA. Google affirme pourtant avoir réduit de 12 % ses émissions liées à l’énergie sur la même période.
Méthodes et comparaisons : un terrain encore mouvant
Google insiste sur la transparence de ses analyses, en opposant ses calculs détaillés à ceux de concurrents qui se contenteraient de moyennes globales. Mais l’usage de la médiane plutôt que de la moyenne suscite des critiques, car il favorise certaines représentations.
La comparaison avec ChatGPT illustre le problème. Le concurrent est crédité de 0,34 Wh et de 0,3 ml d’eau par requête, mais sans précision sur la méthodologie employée. Google lui-même reconnaît qu’il est aujourd’hui impossible de comparer objectivement faute de cadre commun.
Communication, contraintes et attentes sociales
Au fond, le débat autour de Gemini révèle un double mouvement. Les entreprises de la tech mettent en avant leurs progrès pour rassurer sur l’avenir de l’IA. Les chercheurs, eux, exigent davantage de transparence, notamment sur l’origine de l’électricité et les impacts locaux des infrastructures.
Si les modèles semblent progresser vers plus de sobriété, leur généralisation mondiale annule une partie des gains annoncés. La pression sociale pourrait donc pousser régulateurs et industriels à établir une méthodologie unique, seule façon de comparer honnêtement les technologies et de mesurer leur coût écologique réel.