Energie : vers une explosion de la consommation liée à l’IA ?

L’impact environnemental des systèmes d’intelligence artificielle ne se limite pas à leur consommation d’électricité.

Rédigé par Aurélie Giraud, le 1 Feb 2025, à 10 h 07 min
Energie : vers une explosion de la consommation liée à l’IA ?
Précédent
Suivant

L’intelligence artificielle est aujourd’hui omniprésente dans de nombreux secteurs, de la recherche scientifique aux usages grand public. Son développement rapide s’accompagne d’une augmentation significative des ressources nécessaires à son fonctionnement, notamment en matière de consommation d’énergie. Plusieurs études récentes, dont celles de Deloitte et de l’Agence internationale de l’énergie, tentent d’évaluer l’impact énergétique de ces technologies et d’anticiper leur évolution dans les décennies à venir.

Une explosion de la consommation en énergie est possible

L’essor des modèles d’apprentissage automatique et des réseaux neuronaux profonds a conduit à une demande croissante en puissance de calcul. Les infrastructures informatiques qui les soutiennent, principalement des centres de données, sont de plus en plus sollicitées, ce qui entraîne une hausse de la consommation électrique. En 2023, la consommation des systèmes d’intelligence artificielle était estimée à environ 382 térawattheures par an. Selon l’étude Deloitte publiée en novembre 2024, ce chiffre pourrait être multiplié par un facteur compris entre quatre et neuf d’ici 2050, atteignant ainsi une consommation énergétique mondiale située entre 1 680 et 3 550 térawattheures par an, selon le scénario retenu. Dans le cas d’une adoption modérée de l’IA, la croissance serait progressive et s’accompagnerait d’une optimisation des infrastructures existantes. En revanche, un scénario d’adoption élevée, où l’intelligence artificielle serait largement intégrée à toutes les sphères économiques et industrielles, conduirait à une explosion des besoins énergétiques.

Les centres de données, qui assurent le stockage et le traitement des modèles d’intelligence artificielle, jouent un rôle central dans cette augmentation. Leur consommation d’électricité est directement liée à la complexité et à la fréquence d’utilisation des modèles d’IA. Une étude de Harvard met en évidence le fait que ces infrastructures sont souvent situées dans des régions où l’énergie est fortement carbonée, notamment aux États-Unis où la majorité des centres sont alimentés par des centrales fonctionnant au charbon. La consommation énergétique de ces installations est ainsi caractérisée par une empreinte carbone particulièrement élevée. En 2023, l’intensité carbone des centres de données américains dépassait de près de 48 % la moyenne nationale, rendant ces installations plus polluantes que d’autres infrastructures informatiques.

L’IA : un risque pour l’eau ?

L’impact environnemental des systèmes d’intelligence artificielle ne se limite pas à leur consommation d’électricité. Le refroidissement des centres de données nécessite des quantités d’eau importantes, notamment dans les régions où les températures sont élevées. Cette consommation d’eau pose des problèmes de durabilité, notamment dans les zones touchées par le stress hydrique. L’eau utilisée pour éviter la surchauffe des serveurs est ensuite rejetée dans l’environnement, ce qui peut perturber les écosystèmes locaux.

Les grandes entreprises du numérique, qui figurent parmi les principaux acteurs du secteur, sont directement concernées par ces problématiques. Google a enregistré une augmentation de 48 % de ses émissions de gaz à effet de serre entre 2019 et 2023, malgré ses engagements en faveur de la neutralité carbone. Microsoft, de son côté, a vu ses émissions progresser de 23 % en trois ans, alors que l’entreprise avait annoncé un objectif de bilan carbone négatif d’ici 2030. Amazon a également revu ses ambitions à la baisse, repoussant son objectif de neutralité carbone à 2040.

Sondage – L’intelligence artificielle contrôlera-t-elle un jour l’humanité ?

Comment réduire l’empreinte carbone de l’Intelligence Artificielle ?

Plusieurs pistes sont envisagées pour limiter l’empreinte énergétique des technologies d’intelligence artificielle. Une première approche consiste à améliorer l’efficacité des modèles d’IA en optimisant leur architecture et en réduisant la quantité de calculs nécessaires à leur fonctionnement. Certains chercheurs travaillent sur des systèmes capables d’effectuer des tâches similaires avec une consommation d’énergie réduite, en utilisant des algorithmes plus légers et mieux adaptés aux besoins spécifiques des utilisateurs. La mutualisation des ressources informatiques est également étudiée afin d’éviter la multiplication des infrastructures redondantes.

Un autre levier réside dans le développement d’infrastructures énergétiques plus durables pour alimenter les centres de données. Plusieurs entreprises investissent dans des solutions basées sur les énergies renouvelables afin de réduire leur dépendance aux combustibles fossiles. Toutefois, ces initiatives ne sont pas toujours suffisantes pour compenser la hausse globale de la demande en électricité.

L’ampleur de la transition énergétique requise pour accompagner l’essor de l’intelligence artificielle reste encore incertaine. Si certaines projections montrent que l’optimisation des infrastructures et des modèles d’IA pourrait atténuer la hausse de la consommation énergétique, d’autres soulignent l’effet rebond, un phénomène selon lequel l’amélioration de l’efficacité énergétique conduit souvent à une augmentation de l’utilisation des technologies concernées.

Lire aussi
L’intelligence artificielle est capable de calculer la date de notre mort





Aucun commentaire, soyez le premier à réagir ! Donnez votre avis

Moi aussi je donne mon avis