Zoom sur ... l'intelligence artificielle

En seulement deux ans, ChatGPT est devenu un outil du quotidien pour plus de 200 millions d’utilisateurs réguliers. Comme 66% de la population française, vous l’avez d’ailleurs sûrement déjà testé, lui ou un autre agent de conversation d’intelligence artificielle générative (comme Claude, son équivalent made in France). Mais vous êtes-vous déjà demandé quel était l’impact écologique de ces outils d’intelligence artificielle générative ?

Si l’intelligence artificielle (IA) est présente dans nos vies depuis de nombreuses années (GPS, enceintes connectées, plateformes de streaming, …), l’arrivée de l’IA générative, beaucoup plus énergivore, et dont le nombre d’utilisateurs pourrait s’élever à un demi-milliard d’ici 2027, soulève de nombreuses questions.

La digitalisation massive de nos modes de vie et la démocratisation de l’IA ont un impact écologique considérable, que ce soit en matière de consommation d’énergie (et donc d’émissions de gaz à effet de serre), d’eau ou encore de matières premières.

Jusqu’à quel point un acteur ou un secteur économique peut-il augmenter ses émissions de gaz à effet de serre ? Doit-on choisir entre des émissions nécessaires (comme la prévision météorologique) et d’autres jugées non nécessaires (comme les recherches sur ChatGPT) ?

Une chose est sûre, comme le rappelle l’ONU, il est urgent de s'attaquer aux empreintes énergétiques et hydriques de ces technologies. Ce sera d’ailleurs l’un des thèmes du sommet sur l’IA qui se tiendra en France les 10 et 11 février prochains.

Il est très difficile d’estimer l’empreinte écologique de l’intelligence artificielle générative, car les modèles évoluent très vite (rendant caduques les estimations), et les entreprises du secteur ne partagent que très peu d’informations sur le sujet. Les chiffres donnés dans cet article sont donc des estimations, et peuvent être amenés à évoluer.

L’intelligence artificielle a une forte empreinte carbone

Avant toute chose, il est important d’avoir en tête que l’empreinte carbone de ChatGPT, et d’une IA en général, n’est pas la même en fonction de la zone géographique où sont implantés les data centers.

L’impact varie en fonction de la source d’électricité utilisée. Un même modèle d’IA peut ainsi émettre presque 10 fois plus de gaz à effet de serre lorsqu’il s’exécute aux États-Unis plutôt qu’en France, où l’électricité est beaucoup plus décarbonée.

À noter également que ChatGPT-4, plus performant que ChatGPT-3, est aussi beaucoup plus émetteur. Un échange rapide avec ChatGPT-4 émet ainsi cent fois plus de CO2 que le modèle précédent (ChatGPT-3,5).

Estimation de l’empreinte carbone de ChatGPT

Dans sa phase d’entraînement, ChatGPT-3 aurait consommé 1 287 MWh, ces derniers ayant émis 552 tonnes de CO2e, soit plus de 205 vols aller-retour entre Paris et New-York. Mais cette phase est loin d’être la plus émettrice.

En effet, dans le cas de l’IA générative, il semblerait que la part des émissions de GES liées à la phase d’inférence dépasse largement celle liée à l’entraînement. Car si la consommation unitaire est plus faible, le nombre d’utilisateurs (et donc le volume), lui, est beaucoup plus élevé.

Une entreprise qui utilise ChatGPT-3 pour envoyer automatiquement un million de mails par mois sur une période d'un an émet ainsi 240 tonnes de CO2, soit l'équivalent de 136 allers-retours entre Paris et New York. Et près des trois-quarts de cette empreinte carbone est imputable à la seule consommation énergétique.

Et selon une estimation réalisée par Vert, échanger 10 fois par jour pendant 1 an avec Chat-GPT émettrait environ 1 tonne de CO2. Soit la moitié de ce qu’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.

Le patron d’Alphabet, la maison-mère de Google, a reconnu qu’intégrer Bard, leur chatbot doté d’IA, dans le moteur de recherche, conduirait à multiplier par dix le coût carbone par requête.

Le déploiement de l’intelligence artificielle générative menace les objectifs climatiques des entreprises

S’il est difficile d’estimer l’empreinte écologique précise de l’intelligence artificielle, une chose est sûre : cette dernière est loin d’être négligeable. Preuve en est, le recul de nombreuses entreprises de la tech concernant leurs objectifs climatiques suite au déploiement massif d’outils IA.

Un graphique issu du bilan trimestriel de Microsoft, détenteur d’Open AI à 49%, montre qu’à mesure que ses investissements dans l’IA explosent, l’entreprise s’éloigne de son objectif de neutralité carbone à horizon 2030. Depuis 2020, les émissions de gaz à effet de serre de Microsoft ont ainsi augmenté de 30%, principalement en raison du développement de l’IA.

L'intelligence artificielle met en péril les objectifs climatiques du géant technologique
Source :
archive.is

Du côté de Google, l’impact écologique de l’intelligence artificielle se fait encore plus ressentir. Entre 2019 et 2023, les émissions de gaz à effet de serre de l’entreprise ont augmenté de 48%, en raison de la montée en puissance de l’IA. Depuis Google ne prétend plus être neutre en carbone, et espère atteindre de nouveau cette neutralité d’ici à 2030.

Pourtant, les géants de la tech tentent le plus souvent d’esquiver les questions liées au coût environnemental de l’intelligence artificielle, et préfèrent, à l’instar de Bill Gates, mettre en avant le développement des énergies renouvelables permis grâce à la hausse de la demande énergétique de ces entreprises. Une allégation en réalité trompeuse.

L’intelligence artificielle est très énergivore

S’il est vrai que la démocratisation de l’IA entraîne une hausse de la demande en énergie renouvelable, nous ne devrions pas pour autant nous en réjouir. Car la hausse de la consommation énergétique des data centers accroît en réalité notre dépendance aux énergies fossiles et à l’énergie nucléaire.

« On estime que la demande d’électricité liée à l’IA va être multipliée par deux d’ici à 2030. Le problème, c’est que cela croît plus vite que notre capacité à développer des énergies renouvelables » Lou Welgryn, co-présidente de Data for good, pour Vert

Les data centers nécessitent d’énormes quantités d’énergie

Dans le monde, plus de 7 000 data centers ont été construits ou sont à différents stades de développement, contre 3 600 en 2015. Un boom qui pose de nombreux problèmes environnementaux, car ces data centers sont très énergivores.

Aux Etats-Unis, un seul data center peut ainsi consommer autant que 30 000 foyers. En Irlande, la consommation électrique des data centers est passée de 5% en 2015 à 21% de l’électricité produite en 2023, soit plus que la consommation de toutes les maisons de ville du pays. Au total, les centres de données consomment plus d'électricité que la plupart des pays.

Evolution de la consommation énergétique des data centers dans le monde, en comparaison avec celle des pays | Bloomberg

La consommation électrique liée aux data centers pourrait doubler d’ici 2026, pour atteindre 1 000 TWh (soit l'équivalent de la consommation électrique du Japon), générant un surplus de 37 milliards de tonnes de CO2 dans l’atmosphère.

En France, le numérique représente 10% de la consommation d’électricité. Son empreinte carbone pourrait tripler d’ici à 2050 avec la généralisation de l’intelligence artificielle, la multiplication des data centers et l’augmentation significative du nombre d’appareils et d’équipements numériques des ménages français.

Partout, la demande en énergie augmente en raison de l’intelligence artificielle

Cette hausse de la demande en énergie des data centers est fortement liée au déploiement de l’IA générative. Car qui dit plus d’IA, dit plus de data centers, et donc un besoin énergétique plus important. D’ici à 2027, l’intelligence artificielle générative pourrait ainsi utiliser autant d’électricité que l’Espagne en 2022.

La consommation électrique des data centers pourrait même atteindre 3 550 TWh d'ici 2050, soit plus que la consommation actuelle de toute l'Union européenne. Et cette augmentation sera principalement tirée par l'IA, qui représentera 68% de cette consommation en 2050, contre seulement 11% aujourd'hui.

L’IA pourrait représenter 68% de la consommation mondiale des data centers d’ici 2050 | Deloitte

Au Royaume-Uni, l’IA devrait ainsi consommer 500% d'énergie en plus au cours de la prochaine décennie. En Suède, la demande d'électricité des data centers devrait doubler au cours de cette décennie, puis doubler à nouveau d'ici à 2040.

L’intelligence artificielle accroît notre dépendance aux énergies fossiles

Si les patrons de la tech aiment à vanter le rôle de l’intelligence artificielle dans la hausse de la demande en énergies renouvelables, cette allégation est, comme je vous l’annonçais un peu plus haut, en réalité trompeuse.

La hausse de la demande énergétique surpasse nos capacités de production d’énergies renouvelables

La hausse de la demande en énergie liée aux data centers vient s’ajouter à nos autres consommations énergétiques, et surpasse donc notre capacité de production d’énergies renouvelables.

En Arabie saoudite, en Irlande, ou encore en Malaisie, l'énergie nécessaire pour faire fonctionner à plein régime tous les data centers construits ou en cours de construction dépasse ainsi l'offre d'énergie renouvelable disponible.

En 2022, la consommation d'énergie des data centers de l'Irlande correspondait à 53% de son approvisionnement en énergie renouvelable. Et, en 2026, la multiplication des data centers est susceptible de mobiliser un tiers de la production électrique totale du pays. En cas de choc de demande sous l’effet de phénomènes saisonniers, comme un hiver rude ou une tempête, cette forte demande pourrait conduire à une saturation du réseau électrique. Le pays a donc interdit toute nouvelle construction dans l'agglomération de Dublin en 2021, en raison de contraintes énergétiques.

En France, le 8ème parc mondial avec 250 data centers, ce seul secteur pourrait mobiliser la puissance de cinq à sept réacteurs nucléaires d’ici 2030, selon Cécile Diguet, directrice du département transformations urbaines de l’agence d’urbanisme d’Île-de-France.

Ce qui entraîne un report vers les énergies fossiles

En 2035, la Malaisie pourrait accueillir pour environ 11 GW de data. Le problème ? La puissance électrique installée de la Malaisie est d'environ 27GW. Il faudra donc augmenter la capacité massivement dans un pays où 80% de l'électricité est produite base d’énergies fossiles.

En France, les data centers devraient générer chaque année, à eux seuls, 50 millions de tonnes de CO2 en 2050. De l’autre côté de l’Atlantique, aux Etats-Unis, qui a connu un boom de la demande en énergies fossiles en raison de l’IA, les objectifs en matière de lutte contre le changement climatique sont menacés, et des centrales à charbon subsistent déjà dans certaines régions pour répondre aux besoins énergétiques des data centers.

Au niveau mondial, l’industrie mondiale des data centers pourrait émettre 2,5 milliards de tonnes de CO2 d'ici à 2030. Et une grande partie de ces émissions est due à leur approvisionnement énergétique.

Pour combler leurs besoins énergétiques liés au développement de l’intelligence artificielle générative, et réduire leur dépendance aux énergies fossiles, les GAFAM rachètent et relancent des centrales nucléaires. Mais ces dernières seront-elles suffisantes pour pallier les besoins énergétiques croissants de cette nouvelle technologie ?

De même, la valorisation de la chaleur produite par les data centers sera-t-elle suffisante pour compenser les émissions de gaz à effet de serre induites par l’utilisation massive de l’IA ?

Eau, ressources, usage des sols, … Les autres coûts cachés de l’intelligence artificielle
L’Intelligence artificielle est très gourmande en eau

De la même manière que nos ordinateurs surchauffent quand on les utilise et nécessitent de refroidir avec des ventilateurs, les data centers ont besoin d’être réfrigérés. Pour ce faire, différentes techniques existent et se font concurrence. La climatisation classique (gourmande en énergie), l’utilisation de circuits d’eau (ouverts, avec rejet d’eaux usées, ou fermés) pour refroidir l’air à l’intérieur des installations, ou bien des systèmes dits « adiabatiques » par pulvérisation d’eau. Aujourd’hui, la plupart des data centers ont recours à l’une des deux dernières méthodes.

La demande en eau des data centers augmente

Dans son rapport environnemental, Google a révélé avoir prélevé 28 milliards de litres d’eau en 2023, dont les deux tiers (de l’eau potable) pour refroidir ses data centers. Entre 2018 et 2022, ses prélèvements ont bondi de 82%. Et en 2021, la consommation en eau de Microsoft a augmenté de 34% par rapport à 2020.

La consommation d'eau de Google et de Microsoft a augmenté ces dernières années | Financial Times

En Virginie, la consommation d'eau des dizaines d'installations présentes dans la « rue des data centers » a bondi de près de deux tiers depuis 2019. Au total, les data centers américains auraient consommé plus de 75 milliards de gallons d'eau en 2023, soit à peu près l'équivalent de ce que Londres, la capitale du Royaume-Uni, consomme en quatre mois.

La consommation d'eau des centres de données dans le monde devrait continuer à augmenter dans les prochaines années | Financial Times

Une consommation qui va encore augmenter dans les prochaines années, en raison du développement de l’intelligence artificielle générative.

Rien que pour entraîner Chat GPT-3, Microsoft a utilisé 700 000 litres d’eau pour refroidir ses data centers aux Etats-Unis. Un échange de 10 à 50 questions (plus ou moins complexes) avec ChatGPT-3 nécessiterait l’équivalent d’une bouteille d’eau de 0,5L. Et la facture est encore plus salée pour ChatGPT-4, qui consommerait jusqu’à 1,5L d’eau pour générer 100 mots. D’ici à 2027, l’intelligence artificielle pourrait consommer autant d’eau que la moitié du Royaume-Uni ou que 4 à 6 Danemark.

Eau, énergie… Le coût caché des chatbots | Courrier International

Ce qui entraîne des conflits d’usage dans des régions où l’eau vient à manquer

La consommation d’eau pour le refroidissement des data centers peut s’avérer critique en période de forte chaleur et de stress hydrique, notamment pour les data centers utilisant des systèmes adiabatiques. Car contrairement aux autres systèmes de refroidissement, qui n’ont pas besoin d’eau potable pour fonctionner (à l’exception du traitement de l’humidité de l’air), les installations adiabatiques fonctionnent en circuit ouvert sur le réseau de la ville et engendrent des consommations d’eau élevées.

Alors que l’été 2022 a été marqué par une période de sécheresse en Europe, Thames Water, principale compagnie britannique de distribution d’eau en Angleterre a demandé aux opérateurs de data center un plan de réduction de consommation d’eau à la suite de leur consommation excessive durant la période. Et à Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses consommations d’eau après sa consommation excessive et largement sous-estimée durant ce même été 2022.

« On sait que les opérateurs de data centers font des forages dans les nappes, plus ou moins déclarés. On voit que, en Île-de-France, il y a des nappes de plus en plus fragilisées, notamment dans l’Essonne. Mais personne n’a encore creusé la question à ma connaissance. » Cécile Diguet, coautrice d’une étude sur le développement des data centers en Île-de-France pour Reporterre

Pour réduire les coûts, les data centers sont de plus en plus souvent installés dans des régions moins onéreuses, mais qui sont aussi bien souvent déjà en stress hydrique, comme le Chili, le sud-ouest des États-Unis, ou encore l’Uruguay. Ces installations entraînent de nombreux conflits d’usage et les critiques des populations locales, comme en Espagne avec le mouvement « Tu nube seca mi rio » (« Ton nuage assèche ma rivière »).

42% de l’eau consommée par Microsoft provenait ainsi de zones « de stress hydrique » en 2023, et 15% des prélèvements d’eau douce de Google provenaient de zones à « forte pénurie d'eau ».

« L’affrontement central dans les conflits d’usage à venir [autour de l’accès à l’eau] se fera autour de deux lignes de front : d’un côté le lobby technologique, ses data centers et ses fermes de serveurs, et de l’autre le lobby de l’agriculture industrielle [...]. Le point de convergence des deux modèles est qu’ils concourent à un appauvrissement et à un épuisement des sols autant qu’au stress hydrique des populations avoisinantes. Et que, pour l’essentiel, ils s’en moquent. » Olivier Ertzscheid, chercheur en sciences de l’information pour Reporterre

La course à l’intelligence artificielle augmente le changement d’usage des sols

On l’a vu, plus le temps passe, plus les data centers sont puissants, et donc plus ils sont énergivores et gourmands en eau. Mais ce n’est pas tout : les data centers sont aussi de plus en plus grands, et occupent une surface au sol toujours plus importante. Ce qui représente un réel danger pour la biosphère, alors que la limite planétaire liée à l’usage des sols est déjà dépassée et que le risque associé de perturbation est en augmentation.

La taille moyenne des data centers dans le monde est cinq fois plus importante aujourd’hui qu'en 2010. Et si, au départ, les data centers étaient pour la plupart issus de la transformation de bâtiments existants (centraux téléphoniques, postaux, bâtiments industriels, …), aujourd’hui les entreprises de la tech poursuivent leur développement avec la construction de nouveaux bâtiments pour les data centers, de préférence dans des territoires ruraux et périurbains.

Et la France ne fait pas figure d’exception. À la Courneuve, le Paris Digital Park, avec plus de 40 000 m² de salles hébergeant les serveurs, soit la taille de sept terrains de football sur plusieurs étages, et une puissance de 130 MW, est le plus grand data center de France. À peine la construction du data center achevée, le groupe Digital Realty investissait 2 milliards d'euros dans un projet encore plus massif, à Dugny : une surface de 41 000 m² et une capacité de 200 MW, soit un cinquième de la production d'un EPR, qui devrait voir le jour dans quelques années.

Dans l’optique de respecter l’objectif de zéro artificialisation nette (ZAN) en 2050 que s’est fixé la France, l’ADEME et l’ARCEP préconisent que l’implantation des nouveaux data centers suivent les principes de la ZAN, en privilégiant par exemple les friches urbaines et par le recours à plus de sobriété foncière.

L’intelligence artificielle nécessite de nombreuses ressources et terres rares

Selon l’ONU, la demande de minéraux, essentiels à la production de matériel numérique, comme les batteries, pourrait augmenter de 500% d'ici à 2050. Si ce chiffre concerne l’ensemble du secteur du numérique, il permet tout de même de se faire une idée de l’ampleur de l’enjeu pour l’intelligence artificielle.

Car si les minéraux tels que le lithium et le cobalt sont le plus souvent associés aux batteries du secteur automobile, ils sont également essentiels pour les batteries utilisées dans les data centers. La vitesse de calcul, toujours plus rapide, de l’intelligence artificielle dépend de microprocesseurs extrêmement gourmands en matières rares.

Problème ? Le processus d'extraction implique souvent une utilisation importante d'eau et peut entraîner une pollution des sols et de l’eau. L'extraction de ces minéraux est également souvent liée à des violations des droits de l'homme et à des normes de travail médiocres.

Conclusion

L’intelligence artificielle générative permet des avancées extraordinaires en matière d’archéologie, de lutte contre les fake news et le complotisme, de préservation des coraux ou des insectes, de diffusion de la connaissance scientifique sur le climat, de prévision des risques climatiques (comme les canicules ou les risques d’inondations). L’IA permettrait également de produire du béton moins polluant ou de faire baisser les émissions du secteur aérien. Grâce à l’IA, on pourrait même imaginer un réseau électrique basé uniquement sur des énergies renouvelables, ou fabriquer des matériaux qui capturent le CO₂.

Mais l’intelligence artificielle générative, qui a par ailleurs un coût écologique non-négligeable, participe aussi à l’accélération de la vente de produits et services carbonés. Ainsi, si dans le passé des campagnes marketing montraient une dizaine de contenus différents en fonction des utilisateurs, grâce à l’IA générative, on peut dorénavant générer des milliers de variations personnalisées, allant jusqu’à avoir un contenu unique pour chaque utilisateur. Et donc pousser les personnes à acheter toujours plus de produits polluants.

À cela, vient s’ajouter les usages récréatifs et les nouveaux usages, comme la rédaction d’un email, la retranscription d’une réunion Teams, ou une recherche effectuée sur ChatGPT plutôt que sur Google.

Et si l’IA permet de gagner en productivité sur le court terme, elle va nous faire perdre en productivité sur le long terme. Car elle participe fortement à la crise écologique, et les catastrophes climatiques telles que les canicules, les feux de forêts ou les canicules nous empêchent de travailler.

Il est donc plus que jamais urgent de repenser et prioriser nos usages de l’IA, et de la réguler, autant d’un point de vue écologique que social. D’autant plus avec l’arrivée prochaine de xAI, la nouvelle intelligence artificielle générative « anti-woke » d’Elon Musk.

« La question n’est pas tant le nombre d’utilisateurs que le nombre de requêtes réalisées au quotidien. Or, les gens se mettent à utiliser ChatGPT plutôt que Google pour la moindre demande. On prend l’habitude d’avoir recours à une solution compliquée pour une requête simple. […] Alors certes, c’est très marrant de lui demander de réciter la météo à la manière de Shakespeare, mais ça ne sert à rien. […] Si les utilisateurs avaient conscience de l’impact concret de leurs requêtes, ils se serviraient sûrement bien différemment de ChatGPT » Amélie Cordier, spécialiste de l’IA et fondatrice de Graine d’IA pour Vert

Pour aller plus loin

Un article de :
Marina Yakovlev
Marina Yakovlev
Fondatrice d'EcoYako & Co-fondatrice de "Pour plus de climat dans les médias"
La pollution numérique
Ecologie
10 minutes de lecture

Zoom sur ... l'intelligence artificielle

Publié le
29 janvier 2025
La pollution numérique
Auteur(s)
Marina Yakovlev
Marina Yakovlev
Fondatrice d'EcoYako & Co-fondatrice de "Pour plus de climat dans les médias"
La pollution numérique

En seulement deux ans, ChatGPT est devenu un outil du quotidien pour plus de 200 millions d’utilisateurs réguliers. Comme 66% de la population française, vous l’avez d’ailleurs sûrement déjà testé, lui ou un autre agent de conversation d’intelligence artificielle générative (comme Claude, son équivalent made in France). Mais vous êtes-vous déjà demandé quel était l’impact écologique de ces outils d’intelligence artificielle générative ?

Si l’intelligence artificielle (IA) est présente dans nos vies depuis de nombreuses années (GPS, enceintes connectées, plateformes de streaming, …), l’arrivée de l’IA générative, beaucoup plus énergivore, et dont le nombre d’utilisateurs pourrait s’élever à un demi-milliard d’ici 2027, soulève de nombreuses questions.

La digitalisation massive de nos modes de vie et la démocratisation de l’IA ont un impact écologique considérable, que ce soit en matière de consommation d’énergie (et donc d’émissions de gaz à effet de serre), d’eau ou encore de matières premières.

Jusqu’à quel point un acteur ou un secteur économique peut-il augmenter ses émissions de gaz à effet de serre ? Doit-on choisir entre des émissions nécessaires (comme la prévision météorologique) et d’autres jugées non nécessaires (comme les recherches sur ChatGPT) ?

Une chose est sûre, comme le rappelle l’ONU, il est urgent de s'attaquer aux empreintes énergétiques et hydriques de ces technologies. Ce sera d’ailleurs l’un des thèmes du sommet sur l’IA qui se tiendra en France les 10 et 11 février prochains.

Il est très difficile d’estimer l’empreinte écologique de l’intelligence artificielle générative, car les modèles évoluent très vite (rendant caduques les estimations), et les entreprises du secteur ne partagent que très peu d’informations sur le sujet. Les chiffres donnés dans cet article sont donc des estimations, et peuvent être amenés à évoluer.

L’intelligence artificielle a une forte empreinte carbone

Avant toute chose, il est important d’avoir en tête que l’empreinte carbone de ChatGPT, et d’une IA en général, n’est pas la même en fonction de la zone géographique où sont implantés les data centers.

L’impact varie en fonction de la source d’électricité utilisée. Un même modèle d’IA peut ainsi émettre presque 10 fois plus de gaz à effet de serre lorsqu’il s’exécute aux États-Unis plutôt qu’en France, où l’électricité est beaucoup plus décarbonée.

À noter également que ChatGPT-4, plus performant que ChatGPT-3, est aussi beaucoup plus émetteur. Un échange rapide avec ChatGPT-4 émet ainsi cent fois plus de CO2 que le modèle précédent (ChatGPT-3,5).

Estimation de l’empreinte carbone de ChatGPT

Dans sa phase d’entraînement, ChatGPT-3 aurait consommé 1 287 MWh, ces derniers ayant émis 552 tonnes de CO2e, soit plus de 205 vols aller-retour entre Paris et New-York. Mais cette phase est loin d’être la plus émettrice.

En effet, dans le cas de l’IA générative, il semblerait que la part des émissions de GES liées à la phase d’inférence dépasse largement celle liée à l’entraînement. Car si la consommation unitaire est plus faible, le nombre d’utilisateurs (et donc le volume), lui, est beaucoup plus élevé.

Une entreprise qui utilise ChatGPT-3 pour envoyer automatiquement un million de mails par mois sur une période d'un an émet ainsi 240 tonnes de CO2, soit l'équivalent de 136 allers-retours entre Paris et New York. Et près des trois-quarts de cette empreinte carbone est imputable à la seule consommation énergétique.

Et selon une estimation réalisée par Vert, échanger 10 fois par jour pendant 1 an avec Chat-GPT émettrait environ 1 tonne de CO2. Soit la moitié de ce qu’on devrait émettre en 2050 pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle.

Le patron d’Alphabet, la maison-mère de Google, a reconnu qu’intégrer Bard, leur chatbot doté d’IA, dans le moteur de recherche, conduirait à multiplier par dix le coût carbone par requête.

Le déploiement de l’intelligence artificielle générative menace les objectifs climatiques des entreprises

S’il est difficile d’estimer l’empreinte écologique précise de l’intelligence artificielle, une chose est sûre : cette dernière est loin d’être négligeable. Preuve en est, le recul de nombreuses entreprises de la tech concernant leurs objectifs climatiques suite au déploiement massif d’outils IA.

Un graphique issu du bilan trimestriel de Microsoft, détenteur d’Open AI à 49%, montre qu’à mesure que ses investissements dans l’IA explosent, l’entreprise s’éloigne de son objectif de neutralité carbone à horizon 2030. Depuis 2020, les émissions de gaz à effet de serre de Microsoft ont ainsi augmenté de 30%, principalement en raison du développement de l’IA.

L'intelligence artificielle met en péril les objectifs climatiques du géant technologique
Source :
archive.is

Du côté de Google, l’impact écologique de l’intelligence artificielle se fait encore plus ressentir. Entre 2019 et 2023, les émissions de gaz à effet de serre de l’entreprise ont augmenté de 48%, en raison de la montée en puissance de l’IA. Depuis Google ne prétend plus être neutre en carbone, et espère atteindre de nouveau cette neutralité d’ici à 2030.

Pourtant, les géants de la tech tentent le plus souvent d’esquiver les questions liées au coût environnemental de l’intelligence artificielle, et préfèrent, à l’instar de Bill Gates, mettre en avant le développement des énergies renouvelables permis grâce à la hausse de la demande énergétique de ces entreprises. Une allégation en réalité trompeuse.

L’intelligence artificielle est très énergivore

S’il est vrai que la démocratisation de l’IA entraîne une hausse de la demande en énergie renouvelable, nous ne devrions pas pour autant nous en réjouir. Car la hausse de la consommation énergétique des data centers accroît en réalité notre dépendance aux énergies fossiles et à l’énergie nucléaire.

« On estime que la demande d’électricité liée à l’IA va être multipliée par deux d’ici à 2030. Le problème, c’est que cela croît plus vite que notre capacité à développer des énergies renouvelables » Lou Welgryn, co-présidente de Data for good, pour Vert

Les data centers nécessitent d’énormes quantités d’énergie

Dans le monde, plus de 7 000 data centers ont été construits ou sont à différents stades de développement, contre 3 600 en 2015. Un boom qui pose de nombreux problèmes environnementaux, car ces data centers sont très énergivores.

Aux Etats-Unis, un seul data center peut ainsi consommer autant que 30 000 foyers. En Irlande, la consommation électrique des data centers est passée de 5% en 2015 à 21% de l’électricité produite en 2023, soit plus que la consommation de toutes les maisons de ville du pays. Au total, les centres de données consomment plus d'électricité que la plupart des pays.

Evolution de la consommation énergétique des data centers dans le monde, en comparaison avec celle des pays | Bloomberg

La consommation électrique liée aux data centers pourrait doubler d’ici 2026, pour atteindre 1 000 TWh (soit l'équivalent de la consommation électrique du Japon), générant un surplus de 37 milliards de tonnes de CO2 dans l’atmosphère.

En France, le numérique représente 10% de la consommation d’électricité. Son empreinte carbone pourrait tripler d’ici à 2050 avec la généralisation de l’intelligence artificielle, la multiplication des data centers et l’augmentation significative du nombre d’appareils et d’équipements numériques des ménages français.

Partout, la demande en énergie augmente en raison de l’intelligence artificielle

Cette hausse de la demande en énergie des data centers est fortement liée au déploiement de l’IA générative. Car qui dit plus d’IA, dit plus de data centers, et donc un besoin énergétique plus important. D’ici à 2027, l’intelligence artificielle générative pourrait ainsi utiliser autant d’électricité que l’Espagne en 2022.

La consommation électrique des data centers pourrait même atteindre 3 550 TWh d'ici 2050, soit plus que la consommation actuelle de toute l'Union européenne. Et cette augmentation sera principalement tirée par l'IA, qui représentera 68% de cette consommation en 2050, contre seulement 11% aujourd'hui.

L’IA pourrait représenter 68% de la consommation mondiale des data centers d’ici 2050 | Deloitte

Au Royaume-Uni, l’IA devrait ainsi consommer 500% d'énergie en plus au cours de la prochaine décennie. En Suède, la demande d'électricité des data centers devrait doubler au cours de cette décennie, puis doubler à nouveau d'ici à 2040.

L’intelligence artificielle accroît notre dépendance aux énergies fossiles

Si les patrons de la tech aiment à vanter le rôle de l’intelligence artificielle dans la hausse de la demande en énergies renouvelables, cette allégation est, comme je vous l’annonçais un peu plus haut, en réalité trompeuse.

La hausse de la demande énergétique surpasse nos capacités de production d’énergies renouvelables

La hausse de la demande en énergie liée aux data centers vient s’ajouter à nos autres consommations énergétiques, et surpasse donc notre capacité de production d’énergies renouvelables.

En Arabie saoudite, en Irlande, ou encore en Malaisie, l'énergie nécessaire pour faire fonctionner à plein régime tous les data centers construits ou en cours de construction dépasse ainsi l'offre d'énergie renouvelable disponible.

En 2022, la consommation d'énergie des data centers de l'Irlande correspondait à 53% de son approvisionnement en énergie renouvelable. Et, en 2026, la multiplication des data centers est susceptible de mobiliser un tiers de la production électrique totale du pays. En cas de choc de demande sous l’effet de phénomènes saisonniers, comme un hiver rude ou une tempête, cette forte demande pourrait conduire à une saturation du réseau électrique. Le pays a donc interdit toute nouvelle construction dans l'agglomération de Dublin en 2021, en raison de contraintes énergétiques.

En France, le 8ème parc mondial avec 250 data centers, ce seul secteur pourrait mobiliser la puissance de cinq à sept réacteurs nucléaires d’ici 2030, selon Cécile Diguet, directrice du département transformations urbaines de l’agence d’urbanisme d’Île-de-France.

Ce qui entraîne un report vers les énergies fossiles

En 2035, la Malaisie pourrait accueillir pour environ 11 GW de data. Le problème ? La puissance électrique installée de la Malaisie est d'environ 27GW. Il faudra donc augmenter la capacité massivement dans un pays où 80% de l'électricité est produite base d’énergies fossiles.

En France, les data centers devraient générer chaque année, à eux seuls, 50 millions de tonnes de CO2 en 2050. De l’autre côté de l’Atlantique, aux Etats-Unis, qui a connu un boom de la demande en énergies fossiles en raison de l’IA, les objectifs en matière de lutte contre le changement climatique sont menacés, et des centrales à charbon subsistent déjà dans certaines régions pour répondre aux besoins énergétiques des data centers.

Au niveau mondial, l’industrie mondiale des data centers pourrait émettre 2,5 milliards de tonnes de CO2 d'ici à 2030. Et une grande partie de ces émissions est due à leur approvisionnement énergétique.

Pour combler leurs besoins énergétiques liés au développement de l’intelligence artificielle générative, et réduire leur dépendance aux énergies fossiles, les GAFAM rachètent et relancent des centrales nucléaires. Mais ces dernières seront-elles suffisantes pour pallier les besoins énergétiques croissants de cette nouvelle technologie ?

De même, la valorisation de la chaleur produite par les data centers sera-t-elle suffisante pour compenser les émissions de gaz à effet de serre induites par l’utilisation massive de l’IA ?

Eau, ressources, usage des sols, … Les autres coûts cachés de l’intelligence artificielle
L’Intelligence artificielle est très gourmande en eau

De la même manière que nos ordinateurs surchauffent quand on les utilise et nécessitent de refroidir avec des ventilateurs, les data centers ont besoin d’être réfrigérés. Pour ce faire, différentes techniques existent et se font concurrence. La climatisation classique (gourmande en énergie), l’utilisation de circuits d’eau (ouverts, avec rejet d’eaux usées, ou fermés) pour refroidir l’air à l’intérieur des installations, ou bien des systèmes dits « adiabatiques » par pulvérisation d’eau. Aujourd’hui, la plupart des data centers ont recours à l’une des deux dernières méthodes.

La demande en eau des data centers augmente

Dans son rapport environnemental, Google a révélé avoir prélevé 28 milliards de litres d’eau en 2023, dont les deux tiers (de l’eau potable) pour refroidir ses data centers. Entre 2018 et 2022, ses prélèvements ont bondi de 82%. Et en 2021, la consommation en eau de Microsoft a augmenté de 34% par rapport à 2020.

La consommation d'eau de Google et de Microsoft a augmenté ces dernières années | Financial Times

En Virginie, la consommation d'eau des dizaines d'installations présentes dans la « rue des data centers » a bondi de près de deux tiers depuis 2019. Au total, les data centers américains auraient consommé plus de 75 milliards de gallons d'eau en 2023, soit à peu près l'équivalent de ce que Londres, la capitale du Royaume-Uni, consomme en quatre mois.

La consommation d'eau des centres de données dans le monde devrait continuer à augmenter dans les prochaines années | Financial Times

Une consommation qui va encore augmenter dans les prochaines années, en raison du développement de l’intelligence artificielle générative.

Rien que pour entraîner Chat GPT-3, Microsoft a utilisé 700 000 litres d’eau pour refroidir ses data centers aux Etats-Unis. Un échange de 10 à 50 questions (plus ou moins complexes) avec ChatGPT-3 nécessiterait l’équivalent d’une bouteille d’eau de 0,5L. Et la facture est encore plus salée pour ChatGPT-4, qui consommerait jusqu’à 1,5L d’eau pour générer 100 mots. D’ici à 2027, l’intelligence artificielle pourrait consommer autant d’eau que la moitié du Royaume-Uni ou que 4 à 6 Danemark.

Eau, énergie… Le coût caché des chatbots | Courrier International

Ce qui entraîne des conflits d’usage dans des régions où l’eau vient à manquer

La consommation d’eau pour le refroidissement des data centers peut s’avérer critique en période de forte chaleur et de stress hydrique, notamment pour les data centers utilisant des systèmes adiabatiques. Car contrairement aux autres systèmes de refroidissement, qui n’ont pas besoin d’eau potable pour fonctionner (à l’exception du traitement de l’humidité de l’air), les installations adiabatiques fonctionnent en circuit ouvert sur le réseau de la ville et engendrent des consommations d’eau élevées.

Alors que l’été 2022 a été marqué par une période de sécheresse en Europe, Thames Water, principale compagnie britannique de distribution d’eau en Angleterre a demandé aux opérateurs de data center un plan de réduction de consommation d’eau à la suite de leur consommation excessive durant la période. Et à Amsterdam, Microsoft a dû présenter un plan drastique de réduction de ses consommations d’eau après sa consommation excessive et largement sous-estimée durant ce même été 2022.

« On sait que les opérateurs de data centers font des forages dans les nappes, plus ou moins déclarés. On voit que, en Île-de-France, il y a des nappes de plus en plus fragilisées, notamment dans l’Essonne. Mais personne n’a encore creusé la question à ma connaissance. » Cécile Diguet, coautrice d’une étude sur le développement des data centers en Île-de-France pour Reporterre

Pour réduire les coûts, les data centers sont de plus en plus souvent installés dans des régions moins onéreuses, mais qui sont aussi bien souvent déjà en stress hydrique, comme le Chili, le sud-ouest des États-Unis, ou encore l’Uruguay. Ces installations entraînent de nombreux conflits d’usage et les critiques des populations locales, comme en Espagne avec le mouvement « Tu nube seca mi rio » (« Ton nuage assèche ma rivière »).

42% de l’eau consommée par Microsoft provenait ainsi de zones « de stress hydrique » en 2023, et 15% des prélèvements d’eau douce de Google provenaient de zones à « forte pénurie d'eau ».

« L’affrontement central dans les conflits d’usage à venir [autour de l’accès à l’eau] se fera autour de deux lignes de front : d’un côté le lobby technologique, ses data centers et ses fermes de serveurs, et de l’autre le lobby de l’agriculture industrielle [...]. Le point de convergence des deux modèles est qu’ils concourent à un appauvrissement et à un épuisement des sols autant qu’au stress hydrique des populations avoisinantes. Et que, pour l’essentiel, ils s’en moquent. » Olivier Ertzscheid, chercheur en sciences de l’information pour Reporterre

La course à l’intelligence artificielle augmente le changement d’usage des sols

On l’a vu, plus le temps passe, plus les data centers sont puissants, et donc plus ils sont énergivores et gourmands en eau. Mais ce n’est pas tout : les data centers sont aussi de plus en plus grands, et occupent une surface au sol toujours plus importante. Ce qui représente un réel danger pour la biosphère, alors que la limite planétaire liée à l’usage des sols est déjà dépassée et que le risque associé de perturbation est en augmentation.

La taille moyenne des data centers dans le monde est cinq fois plus importante aujourd’hui qu'en 2010. Et si, au départ, les data centers étaient pour la plupart issus de la transformation de bâtiments existants (centraux téléphoniques, postaux, bâtiments industriels, …), aujourd’hui les entreprises de la tech poursuivent leur développement avec la construction de nouveaux bâtiments pour les data centers, de préférence dans des territoires ruraux et périurbains.

Et la France ne fait pas figure d’exception. À la Courneuve, le Paris Digital Park, avec plus de 40 000 m² de salles hébergeant les serveurs, soit la taille de sept terrains de football sur plusieurs étages, et une puissance de 130 MW, est le plus grand data center de France. À peine la construction du data center achevée, le groupe Digital Realty investissait 2 milliards d'euros dans un projet encore plus massif, à Dugny : une surface de 41 000 m² et une capacité de 200 MW, soit un cinquième de la production d'un EPR, qui devrait voir le jour dans quelques années.

Dans l’optique de respecter l’objectif de zéro artificialisation nette (ZAN) en 2050 que s’est fixé la France, l’ADEME et l’ARCEP préconisent que l’implantation des nouveaux data centers suivent les principes de la ZAN, en privilégiant par exemple les friches urbaines et par le recours à plus de sobriété foncière.

L’intelligence artificielle nécessite de nombreuses ressources et terres rares

Selon l’ONU, la demande de minéraux, essentiels à la production de matériel numérique, comme les batteries, pourrait augmenter de 500% d'ici à 2050. Si ce chiffre concerne l’ensemble du secteur du numérique, il permet tout de même de se faire une idée de l’ampleur de l’enjeu pour l’intelligence artificielle.

Car si les minéraux tels que le lithium et le cobalt sont le plus souvent associés aux batteries du secteur automobile, ils sont également essentiels pour les batteries utilisées dans les data centers. La vitesse de calcul, toujours plus rapide, de l’intelligence artificielle dépend de microprocesseurs extrêmement gourmands en matières rares.

Problème ? Le processus d'extraction implique souvent une utilisation importante d'eau et peut entraîner une pollution des sols et de l’eau. L'extraction de ces minéraux est également souvent liée à des violations des droits de l'homme et à des normes de travail médiocres.

Conclusion

L’intelligence artificielle générative permet des avancées extraordinaires en matière d’archéologie, de lutte contre les fake news et le complotisme, de préservation des coraux ou des insectes, de diffusion de la connaissance scientifique sur le climat, de prévision des risques climatiques (comme les canicules ou les risques d’inondations). L’IA permettrait également de produire du béton moins polluant ou de faire baisser les émissions du secteur aérien. Grâce à l’IA, on pourrait même imaginer un réseau électrique basé uniquement sur des énergies renouvelables, ou fabriquer des matériaux qui capturent le CO₂.

Mais l’intelligence artificielle générative, qui a par ailleurs un coût écologique non-négligeable, participe aussi à l’accélération de la vente de produits et services carbonés. Ainsi, si dans le passé des campagnes marketing montraient une dizaine de contenus différents en fonction des utilisateurs, grâce à l’IA générative, on peut dorénavant générer des milliers de variations personnalisées, allant jusqu’à avoir un contenu unique pour chaque utilisateur. Et donc pousser les personnes à acheter toujours plus de produits polluants.

À cela, vient s’ajouter les usages récréatifs et les nouveaux usages, comme la rédaction d’un email, la retranscription d’une réunion Teams, ou une recherche effectuée sur ChatGPT plutôt que sur Google.

Et si l’IA permet de gagner en productivité sur le court terme, elle va nous faire perdre en productivité sur le long terme. Car elle participe fortement à la crise écologique, et les catastrophes climatiques telles que les canicules, les feux de forêts ou les canicules nous empêchent de travailler.

Il est donc plus que jamais urgent de repenser et prioriser nos usages de l’IA, et de la réguler, autant d’un point de vue écologique que social. D’autant plus avec l’arrivée prochaine de xAI, la nouvelle intelligence artificielle générative « anti-woke » d’Elon Musk.

« La question n’est pas tant le nombre d’utilisateurs que le nombre de requêtes réalisées au quotidien. Or, les gens se mettent à utiliser ChatGPT plutôt que Google pour la moindre demande. On prend l’habitude d’avoir recours à une solution compliquée pour une requête simple. […] Alors certes, c’est très marrant de lui demander de réciter la météo à la manière de Shakespeare, mais ça ne sert à rien. […] Si les utilisateurs avaient conscience de l’impact concret de leurs requêtes, ils se serviraient sûrement bien différemment de ChatGPT » Amélie Cordier, spécialiste de l’IA et fondatrice de Graine d’IA pour Vert

Pour aller plus loin