IA : une (trop) lourde facture énergétique et environnementale ? (1ère partie)

Le développement de l’IA, symbole de la transition numérique, s’avère très énergivore. Diverses pistes permettent de réduire cette addiction à l’électricité.

La transformation énergétique induite par les impératifs de décarbonation et d’électrification de l’économie moderne nécessite de trouver un juste équilibre entre le recours croissant à des énergies non fossiles et – si possible –  renouvelables et « pilotables » ; l’amélioration des rendements énergétiques des équipements et la diffusion de pratiques de sobriété parmi les consommateurs, qu’ils soient industriels ou particuliers. Une telle combinaison devrait permettre de couvrir l’évolution de nos besoins énergétiques au cours des prochaines décennies. En théorie !

Car ces besoins vont s’accroître considérablement, tout particulièrement en raison des effets de la transition numérique en cours, laquelle affecte les quelque 5,3 milliards d’utilisateurs d’Internet et les plus de 200 milliards d’objets intelligents ou connectés (smartphones, ordinateurs, outils, jouets, montres…) en activité. Cette transition numérique se caractérise par l’essor de nombreuses nouvelles activités très fortement énergivores : déploiement de la 5 puis de la 6G et de leurs évolutions futures ; expansion du cloud computing ;  Internet des objets (IoT) ;  consommation frénétique du streaming TV ; pratique du gaming ; minage des cryptomonnaies ; essor du télétravail ; croissance de l’e-commerce ;  promesses du metaverse (si celles-ci se concrétisent un jour) ; mais surtout multiplication, en nombre et en puissance, des datacenters. Ces infrastructures physiques s’avèrent « incontournables » pour accompagner l’essor du monde numérique, et tout particulièrement de l’Intelligence Artificielle (IA) et de ses multiples applications – professionnelles, sécuritaires, éducatives, scientifiques ou récréatives  – qui innervent ou vont innerver nos sociétés développées. Mais de tels centres, équipés de milliers de serveurs (voire dizaines de milliers suivant leur taille), eux-mêmes constitués de milliers de semi-conducteurs et de puces graphiques, constituent des « gouffres énergétiques » en raison de besoins toujours plus élevés en matière de puissance de calcul, toujours plus poussés et toujours plus rapides,  et de traitement de masses de données, en hausse exponentielle.

« Déesse IA » et « Fée Électricité » : un fantastique conte symbiotique

De fait, la consommation électrique des quelque 11 000 datacenters pouvant être décomptés dans le monde en 2024 (10978 recensés en décembre 2023) équivaut à la consommation cumulée de 92% des pays de la planète (les moins développés et les moins peuplés). Près de la moitié de ces infrastructures est concentrée aux États-Unis (5388 en décembre 2023, localisés pour l’essentiel dans 15 États), qui en abritent 10 fois plus que le second pays le mieux équipé, l’Allemagne (522 unités) ; laquelle précède le Royaume-Uni (515) et la Chine (449). La  France se situe en 6e position  dans ce classement mondial de l’ultra-modernité technologique (315 unités, en progression de deux places depuis 2021).

Localisation des datacenters à travers la planète

Ce type d’installations s’avère parmi les plus énergivores de l’économie contemporaine, consommant de 10 à 50 fois plus d’énergie au m² qu’un immeuble de bureaux commercial standard. La consommation moyenne d’un centre de données de taille « standard » s’élève à 50 mégawatts par an, équivalent aux besoins de 37 000 foyers. Mais pour certains centres de taille XXL, comme celui implanté par Microsoft à Chicago, la consommation peut approcher les 200 MW, soit celle de pratiquement 150 000 foyers. Les nouvelles générations de datacenters, conçues pour répondre aux besoins toujours plus intensifs du cloud computing et de l’IA, devraient atteindre les 1000 MW (équivalent à 800 000 foyers).

Rien d’étonnant donc que la consommation d’électricité de l’ensemble des centres de données localisés sur le sol américain ait  doublé entre 2021 et 2023 selon le Department of Energy (DoE), atteignant 5% de la consommation totale, et devrait de nouveau redoubler entre 2024 et 2027. Au regard de l’évolution du secteur, l’Electric Power Research Institute estime que cette consommation pourrait atteindre les 9% de la consommation électrique états-unienne en 2030. Concrètement, selon les dernières données fournies par le DoE, la consommation des datacenters US devrait s’élever à 375 TWh en 2024, l’équivalent d’environ 45% de la production du parc nucléaire américain.

Ces chiffres, déjà spectaculaires, ne sont rien par rapport à ce que nous réserve l’avenir en raison des perspectives de croissance du secteur à l’échelle planétaire. Selon les prévisions de l’Agence internationale de l’énergie, la consommation mondiale des datacenters devrait plus que doubler entre 2022 et 2026, passant de 460 TWh à plus de 1000 TWh en quatre ans, un chiffre équivalant à la consommation électrique actuelle du Japon. Une estimation corroborée par une  étude de la banque Goldman Sachs datant d’avril 2024 qui indique que du fait de la diffusion de l’IA, de l’accroissement de la demande globale d’électricité (hors IA, qu’il s’agisse du cloud computing, du streaming ou du minage de cryptomonnaies) et du ralentissement redouté du rythme des gains d’efficacité énergétique, la demande mondiale d’électricité servant à alimenter les datacenters devrait plus que doubler d’ici 2030.

Les analystes de Goldman Sachs estiment que 20% de cette hausse de la demande va résulter des besoins spécifiques croissants de l’IA, et tout particulièrement de l’envolée des besoins en calcul destiné à entraîner puis à faire tourner les modèles d’IA génératives conçus pour produire textes et images. Or le coût énergétique, et donc environnemental, d’un tel service est très élevé. Les processeurs graphiques (GPUs) de nouvelle génération, indispensables pour l’apprentissage et le fonctionnement des modèles de langage (LLM), consomment jusqu’à 4 fois plus d’énergie que les processeurs classiques (CPUs). Formuler une requête sur un assistant d’IA comme ChatGPT consomme presque 10 fois plus d’énergie que lancer une requête via un moteur de recherche classique comme Google. Un « prompt » sur ChatGPT consommerait 2,9 watts contre 0,3 watt pour une requête Google. La génération d’images est encore plus « gourmande » en électricité, pouvant, dans le cas d’une image à haute définition, équivaloir à la consommation nécessaire pour recharger un smartphone.

De tels résultats sont cependant à prendre avec précaution car pouvant varier grandement en fonction de nombreux critères : durée et complexité de la requête, puissance du datacenter utilisé, type de modèle d’IA, profil du serveur et caractéristiques des microprocesseurs dudit serveur. En dépit de travaux académiques de plus en plus nombreux, les industriels demeurent réticents à livrer leurs données techniques et une certaine opacité demeure, même si la dimension « énergivore » du secteur fait consensus, que ce soit en phase d’apprentissage et surtout de fonctionnement  de l’IA testée. De nombreux spécialistes estiment que les évaluations disponibles sont très probablement sous-estimées et que le coût énergétique réel serait bien pire.

Un rythme de consommation si effréné remet en cause les engagements « vertueux » des géants de la Tech visant à verdir leur bilan carbone et à réguler leurs émissions de gaz à effet de serre (GES). Surtout, il interroge sur la capacité du réseau électrique existant à rester en mesure de satisfaire une demande en hausse significative permanente, sachant que ledit réseau va devoir également répondre aux besoins générés par l’électrification tout aussi croissante du secteur de la mobilité et de nombreuses activités industrielles ou domestiques (ex : pompes à chaleur et climatisation). Le spectre de blackouts à répétition provoqués par le franchissement des limites physiques du réseau, incapable de satisfaire une surconsommation électrique débridée, se profile sur tous les continents, y compris aux États-Unis. Une telle « épée de Damoclès » énergétique menace structurellement le bon fonctionnement de l’économie en général, et constitue un « goulet d’étranglement » pour la poursuite de l’essor de l’IA, en particulier.

Comment réduire l’addiction électrique de l’IA ?

Les géants de la Tech vont devoir urgemment relever ce défi et réduire cette dépendance énergétique. De multiples pistes sont envisageables.

  • Tout d’abord, augmenter coûte que coûte les capacités de production d’électricité, quitte à continuer à recourir aux énergies fossiles, ou du moins à reporter la date de leur abandon, en dépit des effets négatifs qu’il en résultera concernant le dépassement des limites planétaires et le changement climatique en tout premier lieu. Pour résoudre cette équation difficilement solutionnable, certains aux États-Unis confrontés à l’urgence de pérenniser leurs approvisionnement, vont jusqu’à envisager une relance du  réacteur N°1 – fermé en 2019 pour des raisons économiques – de la centrale nucléaire de Three Mile Island, rendue célèbre pour le grave accident (de niveau 5)  ayant affecté son réacteur N°2 en mars 1979.
  • Au-delà de telles solutions bricolées dans l’urgence, les géants américains de la Tech multiplient les accords avec les opérateurs énergétiques pour sécuriser leurs approvisionnements électriques afin de satisfaire leurs besoins inextinguibles d’énergie. Certains, à l’image d’Amazon qui vient de nouer un partenariat avec Talen Energy, n’hésitent pas à explorer l’option nucléaire, n’excluant pas de se doter de leurs propres centrales nucléaires à terme. D’autres investissent dans des start-ups misant sur la fusion nucléaire.
  • L’option la plus tentante – pour l’heure – repose sur le recours à de  petits réacteurs modulaires, dits SMR (small modular reactors),  une solution « zéro carbone » offrant de nombreux avantages par rapport aux centrales « classiques » (« cheaper, smaller and faster to build »). Outre des délais de construction bien plus brefs,  ces SMR de petite taille peuvent être localisés à proximité immédiate de datacenters énergivores, permettant ainsi de réduire les coûts d’acheminement de l’électricité sans dépendre d’un réseau trop fragile (aux événements climatiques extrêmes de plus en plus fréquents) et trop saturé. Seul souci, cette technologique n’est – actuellement – pas encore totalement mature, y compris aux Etats-Unis, si bien que cette solution technique ne devrait devenir réellement opérationnelle qu’au début de la décennie 2030 alors que les besoins, toujours plus criants, sont d’ores et déjà là. En dépit de ce décalage calendaire, se dessine une potentielle convergence industrielle à venir entre secteurs de la High-Tech et de l’énergie, renouvelable ou nucléaire. Une tendance qui devrait se conforter au cours des deux ou trois décennies à venir.
  • Une autre solution consiste à optimiser la consommation d’électricité des datacenters en privilégiant les centres de grande capacité, dits « hyperscalaires », bien plus efficaces en matière de rendement énergétique qu’une pléthore de petites unités. Une étude du Lawrence Berkeley National Laboratory estime que le transfert de 80 % des serveurs américains vers des installations hyperscalaires optimisées permettrait de réduire la consommation d’énergie de ce secteur d’activité d’environ 25 %. Dans ce domaine, « big is beautiful ».
  • Une autre piste conduit à repenser en profondeur le design des installations, afin de rendre leur construction et leur fonctionnement moins gourmands en énergie. Tout nécessite d’être passé au crible, qu’il s’agisse des bâtiments, des serveurs ou des microprocesseurs utilisés  : choix des matériaux de construction, simplification des schémas d’alimentation et de distribution électrique (réduction du nombre de commutateurs, de disjoncteurs, de tableaux de distribution…), monitoring de la consommation, et surtout amélioration des techniques de refroidissement… Ce dernier point s’avère un enjeu prioritaire, d’autant qu’il concerne tout autant les milliers de serveurs et que les centaines de milliers de microprocesseurs équipant chaque datacenter. Cette fonction de refroidissement peut représenter actuellement entre 30 et 40% de la consommation énergétique d’un datacenter. Les marges d’amélioration apparaissent considérables.
  • Les solutions actuelles, très souvent basées sur la ventilation, sont particulièrement énergivores. Certains envisagent d’immerger leurs datacenters dans des installations sous-marines, tablant sur le fait que la température de l’eau de mer permette de réguler les échanges thermiques.
  • D’autres travaillent sur des procédés de refroidissement des serveurs par immersion dans des cuves ou par circulation de fluides adaptés. Ce peut être de l’eau ou des huiles synthétiques non corrosives et non conductrices comme la polyalphaolefine, à l’origine un lubrifiant automobile d’usage courant qui peut être en contact direct avec les composants électroniques sans risque de court-circuit et permet des échanges de chaleur efficace. De nombreuses recherches sont en cours pour améliorer l’efficience de ce genre d’élixirs si précieux (efforts de R&D en termes de coût et d’échange de chaleur, sans oublier la non-toxicité et la biodégradabilité de ces huiles tout autant smart que high tech).
  • En « réinventant » le design de ses datacenters, Meta escompte ainsi réduire de près d’un tiers le coût de ses installations et de moitié leur temps de construction (de la pose de 1re pierre à la mise en service opérationnelle) par rapport à la précédente génération de centres, conçue au début des années 2010… 

Mais cette dépendance à l’électricité n’est pas la seule contrainte physique à devoir être surmontée pour assurer l’essor escompté de l’Intelligence artificielle.

(A suivre…)

Abonnement

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *