La voix de l'impact
Greenlyhttps://images.prismic.io/greenly/43d30a11-8d8a-4079-b197-b988548fad45_Logo+Greenly+x3.pngGreenly, la plateforme tout-en-un dédiée à toutes les entreprises désireuses de mesurer, piloter et réduire leurs émissions de CO2.
GreenlyGreenly, la plateforme tout-en-un dédiée à toutes les entreprises désireuses de mesurer, piloter et réduire leurs émissions de CO2.
Descending4
Home
1
Blog
2
Category
3
L'impact environnemental de l'intelligence artificielle
4
Media > Data Stories > L'impact environnemental de l'intelligence artificielle

L'impact environnemental de l'intelligence artificielle

Secteurs d'activitéTechnologie
Level
Hero Image
Hero Image
data story cover
Dans cette étude, nous examinerons les émissions de GPT-4, utilisé pour « répondre automatiquement à 1 million de courriels par mois, sur une période d'un an ».
Secteurs d'activité
2025-02-27T00:00:00.000Z
fr-fr
Data Story

L'intelligence artificielle (IA) a explosé ces dernières années, s'invitant dans notre quotidien et promettant de remodeler le marché du travail. Qu'il s'agisse d'utiliser des chatbots en guise de service client, de recourir à l'IA générative pour concevoir des graphiques et de la musique, ou de mettre à profit des algorithmes basés sur l'IA pour prédire les tendances financières, cette technologie est partie pour durer.

Mais l'essor de l'IA n'est pas sans conséquences. Bien qu'elle promette de révolutionner la productivité, le marché de l'emploi et la croissance économique, elle exige aussi une quantité énorme d'énergie et de ressources. À mesure que l'IA se développe, son empreinte environnementale s'accroît, ce qui soulève des questions fondamentales en ce qui concerne la durabilité.

La croissance rapide de l'IA

L’IA est en train de se développer à une vitesse phénoménale :

  • Le marché mondial de l'IA devrait contribuer à l'économie mondiale à hauteur de 15 700 milliards de dollars d'ici à 2030, soit une augmentation de 23 % du PIB. 
  • Les entreprises se précipitent pour intégrer l'IA à leurs activités, et 49 % des leaders du secteur technologique déclarent que l'IA fait désormais partie intégrante de leurs stratégies commerciales de base. En réalité, cette évolution est déjà évidente, puisque 37 % des employés affirment travailler dans des entreprises où les données sont utilisées et organisées grâce à l'IA.
  • Les outils alimentés par l'IA permettent d'accroître l'efficacité des entreprises - certaines d'entre elles constatent des gains de productivité de 20 à 30 %, qui accélèrent les flux de travail, réduisent les coûts et créent de nouvelles sources de revenus.

Qu'est-ce qui alimente ce phénomène ? Trois facteurs principaux : une puissance informatique moins chère, de meilleurs modèles d'apprentissage automatique et la prise de conscience par les entreprises que l'IA est bien plus qu’une expérience - elle s’est transformée en nécessité.

des robots devant des ordinateurs

L’IA et le marché du travail

Chaque fois qu'une nouvelle technologie décolle, elle perturbe le marché du travail, et il en va de même pour l'IA.

D'un côté, l'IA automatise les tâches, réduisant les plus répétitives d'entre elles et rationalisant les opérations. Ainsi, de nombreuses fonctions administratives et de traitement des données se trouvent menacées. 

Le Fonds monétaire international estime que l'IA pourrait impacter 40 % des emplois dans le monde, et que certaines fonctions pourraient même disparaître complètement.

Mais l'IA ne fait pas qu'éliminer des emplois, elle en crée de nouveaux. Des domaines tels que l'éthique de l'IA, l'audit de l'IA et l'ingénierie de l'apprentissage automatique n'existaient pas il y a dix ans. De nombreuses entreprises s'empressent aujourd' hui d'embaucher des spécialistes de l'IA, et les travailleurs capables d’utiliser l'IA de manière efficace sont de plus en plus prisés.

Enfin, il y a aussi la révolution des « agents IA ». Les entreprises ont de plus en plus recours à des travailleurs numériques dotés d'IA - des assistants virtuels qui se chargent de traiter les mails, planifier les réunions, rédiger les rapports et même analyser les tendances du marché.

L’IA au quotidien

La plupart des gens ne se rendent pas compte à quel point l'IA est présente dans leurs habitudes quotidiennes. Qu'il s'agisse de trier des mails, de circuler en voiture ou de créer du contenu personnalisé, l'IA agit en coulisses pour optimiser l'efficacité et faciliter la vie des gens.

Des exemples ?

  • Le divertissement : Netflix, Spotify et YouTube utilisent tous l'IA pour vous recommander les des contenus à regarder, à écouter ou à lire.
  • Le shopping : L'IA génère des publicités personnalisées et des recommandations de produits, influençant ainsi ce que les gens achètent en ligne.
  • La navigation : Google Maps et Waze utilisent l'IA pour analyser l’état de la circulation en temps réel.
  • Les soins de santé : L'IA permet d'améliorer les diagnostics médicaux, de prédire les épidémies et même d'assister les chirurgies robotiques.

Malgré son utilisation répandue, le public n'est pas toujours conscient de la présence de l'IA au quotidien. Selon une enquête du Pew Research Center auprès de 11 004 adultes aux États-Unis, 27 % des personnes interrogées disent interagir avec l'IA plusieurs fois par jour, tandis que 28 % pensent qu'elles l'utilisent environ une fois par jour ou plusieurs fois par semaine. 44 % des répondants pensent ne pas interagir avec l'IA de manière régulière.

Cet écart de perception suggère que le rôle de l'IA est bien plus vaste que ce que les gens imaginent. Dans le cadre de la même enquête, seulement 30 % des Américains ont pu identifier correctement six exemples communs d'utilisation d'IA dans la vie quotidienne. Cela signifie que si de nombreuses personnes déclarent utiliser l'IA avec modération, il est probable qu'elles aient des interactions avec cette technologie beaucoup plus fréquemment qu'elles ne le pensent.

Le rôle de l'IA - de la médecine aux solutions climatiques

L'IA ne fait pas que rendre la vie plus pratique, elle est aussi en train de remodeler certains secteurs d'activité.

  • Santé : Dans certains cas, l'IA peut analyser les scans médicaux plus rapidement que les médecins, détectant ainsi les problèmes de santé potentiels avec beaucoup de précision. Certains hôpitaux utilisent déjà l'IA pour optimiser leurs effectifs et réduire le temps d'attente des patients.
  • Technologie : L'IA accélère le développement de logiciels, de la cybersécurité et même de la fabrication de puces.
  • Finance : Les algorithmes de l'IA gèrent les investissements, détectent les fraudes et analysent les risques du marché en temps réel.
  • Changement climatique et durabilité : L'IA aide à modéliser les scénarios climatiques, à optimiser les réseaux d'énergie renouvelable et même à surveiller la déforestation grâce à l'imagerie satellite.
Le potentiel est impressionnant. Mais il y a un piège : l'IA a elle-même un impact négatif sur l'environnement.

Au-delà de son impact environnemental, l'expansion rapide de l'IA a aussi suscité des inquiétudes concernant son utilisation abusive. Par exemple, lors de l'élection présidentielle aux États-Unis en 2024, Donald Trump a fait circuler des deepfakes de Taylor Swift, faisant croire à ses fans que celle-ci l'avait soutenu.

À mesure que les contenus générés par l'IA se perfectionnent, il deviendra de plus en plus important de tenir compte des risques éthiques - et des besoins énergétiques supplémentaires liés à l'entraînement et à l'exécution de ces modèles.

un visage artificiel

Le coût caché de l’intelligence artificielle

Malgré ses nombreux avantages, l'IA présente un prix élevé pour l'environnement.

  • La consommation énergétique : Les systèmes informatiques d'IA consomment beaucoup plus d'énergie que les systèmes informatiques traditionnels. Les serveurs d'IA nécessitent bien plus d'électricité que les systèmes informatiques standard, les racks de serveurs d'IA consommant entre 30 et 100 kilowatts, contre seulement 7 kilowatts pour les serveurs traditionnels. Cette demande accrue est due à la dépendance de l'IA à l'égard de matériel très puissant optimisé pour des calculs complexes à base de matrices. Il est important de noter que l'empreinte énergétique de l'IA ne se limite pas à l'entraînement : seule 20 à 40 % de la consommation totale d'énergie de l'IA provient de l'entraînement des modèles, tandis que 60 à 70 % provient de l'inférence (le processus en continu d'exécution des modèles d'IA en temps réel).
  • La consommation d'eau : Les data centers d'IA nécessitent des systèmes de refroidissement importants, entraînant ainsi une forte consommation d'eau. Des recherches menées par l'Université de Californie, Riverside et le Washington Post ont montré que générer un mail de 100 mots avec ChatGPT-4 consomme 519 millilitres d’eau, soit à peu près une bouteille remplie. À grande échelle, cela exerce une pression croissante sur les réserves d'eau locales.
  • Les déchets électroniques : Le boom de l'IA augmente la demande de matériel spécialisé, ce qui entraîne une hausse du nombre de processeurs et de composants de serveurs qui se retrouvent jetés au rebut.

La consommation de ressources liée à l'IA ne peut que croître à mesure que la concurrence s'accélère dans ce secteur. Aux États-Unis, un investissement privé de 500 milliards de dollars réalisé par OpenAI, SoftBank et Oracle vise à étendre l'infrastructure de l'IA en construisant de nouveaux data centers, ce qui accentue les préoccupations concernant l'utilisation d’eau et d’énergie. Parallèlement, le lancement de DeepSeek par la Chine a perturbé le marché, marquant officiellement le début d'une course mondiale à l'IA, dont les conséquences sur l'environnement n'iront pas en s'arrangeant.

L'intelligence artificielle est en train de refaçonner le monde plus rapidement que nous n’aurions pu l'imaginer. Elle révolutionne les entreprises, perturbe les industries et change notre façon de vivre et de travailler. Mais son essor rapide entraîne un besoin urgent de faire face à son impact environnemental. La question n'est plus de savoir si l'IA va transformer le monde, mais plutôt, pouvons-nous assurer un avenir durable à l'IA ?

L’essor de ChatGPT

Parmi les nombreuses applications de l'IA qui redessinent notre monde, l'une d'entre elles se distingue par son impact et son ampleur : ChatGPT. Avec des centaines de millions d'utilisateurs et une présence croissante dans les flux de travail quotidiens, les chatbots alimentés par l'IA font grimper la demande d'énergie à un niveau jamais atteint auparavant.

Le coût environnemental de ces systèmes est particulièrement frappant, car l'énergie nécessaire pour générer du texte, répondre aux requêtes et maintenir des conversations en continu se traduit par une empreinte carbone colossale. ChatGPT, l'un des modèles d'IA les plus utilisés, constitue une véritable étude de cas, illustrant à quel point l'IA est devenue énergivore.

Le coût environnemental de la montée en puissance de ChatGPT

En décembre 2024, ChatGPT avait atteint un nombre stupéfiant d'utilisateurs : 300 millions, un chiffre qui continue de grimper au fur et à mesure que l'IA s'intègre à la vie quotidienne.

Pourtant, alors que le nombre de personnes ayant recours à l'IA monte en flèche, l'impact environnemental de ChatGPT reste largement méconnu. Les data centers devraient connaître une expansion de 28 % d'ici à 2030, et les besoins énergétiques de l'IA augmentent rapidement, avec des estimations qui suggèrent qu'elle pourrait représenter 3 à 4 % de la consommation mondiale d'électricité d'ici la fin de cette décennie. Les émissions de carbone liées à l'IA devraient également doubler entre 2022 et 2030, amplifiant ainsi son empreinte environnementale.

La précédente itération de ChatGPT, ChatGPT-3, avec 175 milliards de paramètres, consommait 1 287 MWh d'électricité par an, soit l'équivalent de 502 tonnes d'émissions de carbone, ou l'empreinte annuelle de 112 voitures à essence !

ChatGPT en 2025 

En 2025, ChatGPT est plus pertinent que jamais, les utilisateurs ayant recours à l'IA pour toutes sortes de tâches, de la planification des vacances à la gestion de mails professionnels fastidieux.
Cependant, à mesure que l'IA devient plus sophistiquée, le besoin de systèmes multi-agents (via lesquels plusieurs modèles d'IA travaillent ensemble pour accomplir des tâches complexes) va augmenter. Cette évolution pourrait accroître sensiblement les besoins informatiques et la consommation d'énergie, ce qui, à terme, augmenterait l'empreinte carbone globale de l’IA.

Alors, comment ChatGPT va-t-il façonner notre quotidien en 2025 ?

  • La productivité sur le lieu de travail : Qu'il s'agisse de rédiger des mails ou rapports ou de faire le compte rendu d’une réunion, ChatGPT est devenu un outil standard des entreprises du monde entier. Bien qu'il stimule l'efficacité, son utilisation généralisée soulève des inquiétudes concernant la protection des données, la suppression d'emplois et l'impact environnemental lié à la demande accrue de serveurs.
  • Les services à la clientèle et l'automatisation : Les entreprises s'appuient de plus en plus sur ChatGPT pour interagir avec leurs clients, ce qui réduit la charge de travail du personnel, mais génère également de grandes quantités de texte automatisé qui contribuent au désordre numérique et à la consommation énergétique.
  • L'éducation et l'apprentissage : ChatGPT est aujourd'hui une ressource incontournable pour les étudiants et les professionnels, les aidant pour le tutorat, la traduction linguistique et même la recherche.
  • L'assistance personnelle : Qu'il s'agisse d'aider les utilisateurs à planifier leurs déplacements, à composer des posts pour les réseaux sociaux ou même à établir des plans de repas, ChatGPT est devenu un assistant personnel au quotidien. Et même si c'est une commodité précieuse, les coûts énergétiques liés au traitement d'innombrables requêtes individuelles ne cessent d'augmenter.

Alors que le rôle de ChatGPT au quotidien se développe, les questions relatives à son impact environnemental, à son utilisation éthique et à ses implications à long terme en matière d'interaction humaine se posent également.

Impact de l’IA générative

Prenons une tâche simple comme l'utilisation de l'IA pour rédiger un mail de routine. Bien que la rédaction dans un seul langage puisse sembler anodine, ChatGPT s'appuie fortement sur les GPU (unités de traitement graphique) pour les entraînements et les inférences, en raison de leurs fonctionnalités de traitement parallèle avancées, ce qui rend les interactions d'IA, même simples, étonnamment gourmandes en énergie.

Ainsi, la génération d'une seule réponse d'IA consomme à peu près la même quantité d'énergie que le chargement complet d'un smartphone. Cela souligne à quel point l'utilisation de l'IA, même occasionnelle, contribue à l'excès d'émissions de carbone, en particulier à grande échelle.

En 2025, l'IA est profondément ancrée dans les tâches quotidiennes telles que la rédaction de mails et les requêtes de recherche, ce qui rend son impact sur l'environnement bien plus important que ne le pensent de nombreux utilisateurs. Avec les milliards d'interactions qui se produisent chaque jour, les émissions cumulées sont à la fois substantielles et en augmentation.

L’intensité énergétique de diverses tâches

Une étude, menée par Hugging Face et l'université Carnegie Mellon et dirigée par Sasha Luccioni, chercheur en IA chez Hugging Face, a évalué 88 modèles d'IA différents effectuant des tâches courantes telles que :

  • la génération de texte ;
  • la formulation de questions ;
  • la classification d’images ;
  • l'appellation d’images ;
  • la génération d’images.

Le tableau ci-dessous présente les résultats de l'étude relative à la consommation d'énergie de différentes tâches d’IA.

Tâche IA Énergie utilisée pour 1 000 requêtes (kWh) Émissions de CO₂ pour 1 000 requêtes
Classification de texte 0,002 ~0,3g CO₂e
Génération de texte 0,047 ~7,5g CO₂e
Synthèse 0,049 ~8g CO₂e
Classification d’images 0,007 ~1,1g CO₂e
Détection d’objets 0,038 ~6,1g CO₂e
Génération d’images 2,9 1,594g CO₂e (6,6 km parcourus)

Les résultats de l'étude mettent en évidence l'importance des besoins énergétiques de l'IA générative par rapport à ceux de l'IA axée sur les tâches.

Des recherches complémentaires confirment ces résultats, démontrant que la génération de 1 000 images peut produire autant de CO₂ que de parcourir 6,6 km dans une voiture à essence. En revanche, la génération de texte nécessite beaucoup moins d'énergie - elle ne consomme que 16 % d'une charge complète de smartphone, avec des émissions équivalentes à un trajet de 0,0006 miles seulement.

Des études ont révélé qu'en moyenne, la génération d'images par l'IA est 60 fois plus gourmande en énergie que la génération de texte. 

Au-delà de l'inférence, les modèles d'IA générative nécessitent également un entraînement intensif, ce qui augmente davantage leur empreinte énergétique globale. Par exemple, l'entraînement du modèle d'IA BLOOMz (qui compte plus de 100 milliards de paramètres) consomme 0,0001 kWh par requête. Pour donner un ordre d'idée, même le modèle de génération d'images le moins économe en énergie a utilisé autant d'énergie que 522 charges de smartphone pour seulement 1 000 inférences.

Dans l'ensemble, le passage aux réseaux d'agents d'IA et l'utilisation accrue de l'IA générative risquent d'entraîner une augmentation significative de la consommation d'énergie, ce qui sollicitera davantage les data centers et suscitera des inquiétudes concernant l'impact du développement de l'IA sur l'environnement.

Quelle est l’empreinte carbone de ChatGPT4 ?

Alors que le recours à l'IA va en s'accélérant, il est primordial d'en comprendre l'impact sur l'environnement. Si les modèles d'IA tels que ChatGPT représentent une réelle valeur ajoutée pour l'automatisation des tâches et l'amélioration de l'efficacité, leur croissance rapide s'accompagne d'un important coût carbone. L'entraînement et l'utilisation de ces modèles exigent de grandes quantités de puissance de calcul, d'électricité et de refroidissement, ce qui aggrave l'empreinte énergétique.

Mais quelle est l'ampleur de cet impact ? Pour quantifier le coût environnemental de l'IA, nous devons évaluer l'empreinte carbone de l'un des modèles d'IA les plus utilisés, ChatGPT4.

Avant de nous plonger dans les chiffres, examinons d'abord la différence entre GPT-4 et ChatGPT. 

Bien que ChatGPT et GPT-4 soient souvent mentionnés de manière interchangeable, ils répondent à des besoins distincts : 

  • GPT-4 est le modèle d'IA sous-jacent - un modèle de langage puissant et polyvalent capable d'effectuer un grand nombre de tâches, de la génération et la synthèse de texte à la traduction et à l'analyse de données. Il peut être utilisé pour de multiples applications au-delà de la conversation, par exemple la recherche, l'intelligence économique et la modélisation prédictive.
  • ChatGPT, en revanche, est un produit basé sur GPT-4, spécifiquement optimisé pour les interactions conversationnelles. C'est un produit conçu pour fournir des réponses en temps réel, ce qui en fait un outil idéal pour les chatbots, les assistants virtuels et le support à la clientèle. 

En résumé, GPT-4 est le socle, tandis que ChatGPT est une application sur mesure conçue pour améliorer les expériences d'IA axées sur le dialogue.

La méthodologie de Greenly 

Pour évaluer les émissions associées à GPT-4, Greenly a modélisé un cas d'usage réaliste : répondre automatiquement à 1 million de mails par mois pendant une année. Ce scénario tient compte des émissions générées au cours de deux étapes clés : l'entraînement et l'exécution, qui contribuent tous deux à l'empreinte carbone globale de GPT-4.

Pour l'entraînement, cette évaluation suppose que 25 000 GPU NVIDIA A100 ont été utilisés sur une période de 100 jours à une charge de travail de 30 %. Les data centers sont modélisés comme des infrastructures à grande échelle, bien optimisées, avec une efficacité énergétique (PUE) de 1,1, situées aux États-Unis, où le bouquet énergétique moyen émet 403,6 gCO₂e/kWh (selon les données de l'AIE).

En prenant en compte à la fois les phases d'entraînement et d'exécution, cette méthodologie fournit une vue d'ensemble de l'impact carbone de GPT-4 dans le cadre d'une application commerciale en situation réelle.

Émissions liées à l’entraînement de GPT-4

GPT-4 doit d'abord être entraîné pour devenir compétent et efficace dans la rédaction de réponses appropriées aux mails - un processus qui nécessite une puissance de calcul importante pendant de nombreuses heures. Dans ce scénario, conformément à notre méthodologie, nous supposons que l'entraînement a lieu dans de vastes data centers avec une efficacité énergétique (PUE) de 1,1.

Entraîner GPT-4 dans un data center nécessite un éventail d'équipements, y compris des serveurs, des systèmes de refroidissement et une infrastructure réseau. Plutôt que de comptabiliser le fonctionnement continu de ces équipements sur une année entière, l'impact environnemental est calculé en étalant la consommation énergétique de la période d'entraînement de 100 jours sur une année. Il en résulte un total de 5 759 430 kgCO₂e (kilogrammes d'équivalent dioxyde de carbone).

En plus de la consommation directe d'énergie, les data centers contribuent également aux émissions liées aux fuites de réfrigérant des systèmes de refroidissement, qui sont essentiels pour éviter la surchauffe dans les environnements informatiques à haute performance. Sur une année, on estime que ces fuites de réfrigérant produisent 49 587 kgCO₂e supplémentaires.

La fabrication des GPU utilisés pour l'entraînement de GPT-4 a également une empreinte significative, avec une production évaluée à 1 329 141 kgCO₂e (sur la base d'une durée de vie de 4 ans et d'une charge de travail de 30 %).

Les émissions totales liées à l'entraînement de GPT-4 sur une année s'élèvent donc à 7 138 158 kgCO₂e.

Émissions liées à l’utilisation de GPT-4

Une fois GPT-4 dûment entraîné, il peut être déployé pour répondre automatiquement à 1 million de mails par mois. Sur une période d'un an, cela représente 12 millions de mails, ainsi que les émissions de carbone indiquées ci-après.

En tenant compte de l'électricité consommée, des besoins en refroidissement et de la fabrication du serveur, l 'utilisation de GPT-4 pour accomplir cette tâche se traduit par un total de 514 800 kgCO₂e sur une année, soit 42 900 kgCO₂e par mois.

Empreinte carbone totale de GPT-4

Si l'on se base sur ces calculs, pour que GPT-4 réponde à 1 million de mails par mois, les émissions liées à la phase d'utilisation s'élèvent déjà à 42 900 kgCO₂e. Toutefois, si l'on tient compte des phases d'entraînement et d'exécution, amorties sur un même mois, l'impact total s'élève à 637 771 kgCO₂e, ce qui équivaut à environ 360 allers-retours Paris-New York effectués en un seul mois (plus de 4 300 par an !).

Il est à noter que si GPT-4 était utilisé pour répondre à des mails dans plus d'une langue, il serait nécessaire d’effectuer l’entraînement de la technologie pour chacune d’entre elles. Cela signifie que les émissions totales augmentent avec le nombre de versions linguistiques requises, ce qui rend l'empreinte carbone non négligeable pour les entreprises travaillant avec plusieurs langues.

Toutefois, l'impact peut être atténué en ajustant la fréquence d'entraînement ou en utilisant le même modèle pour des tâches multiples, ce qui permet d'amortir son empreinte environnementale globale sur un plus grand nombre d'applications.

un robot regardant une plante

Résultats clés

  • L'entraînement est l'étape qui génère le plus d'émissions : L'entraînement est souvent l'étape qui génère le plus d'émissions pour une tâche donnée, et les calculs de Greenly révèlent qu'entraîner GPT-4 génère des émissions nettement plus élevées que son exécution - jusqu'à 15 fois plus importantes sur une période d'un an pour le cas d'usage spécifique évalué. Il est toutefois important de noter que cette comparaison porte sur une période définie d'un an et sur une seule tâche. En réalité, GPT-4 est déployé à travers le monde pour des milliards de requêtes chaque jour, ce qui signifie qu'au fil du temps, les émissions cumulées liées à son exécution peuvent rapidement dépasser celles liées à l'entraînement.
  • Le choix du data center influe fortement sur les émissions : La localisation et l'efficacité du data center jouent un rôle majeur dans le calcul des émissions. Par exemple, un data center traditionnel produit beaucoup plus d'émissions qu'un data center optimisé. De plus, le pays dans lequel se trouve le centre influe sur la quantité d'émissions en raison des différences d'intensité du réseau électrique. Les calculs de Greenly sont basés sur un data center situé aux États-Unis, mais si le même modèle était entraîné en France, les émissions seraient environ trois fois moins élevées en raison du bouquet énergétique français à plus faible teneur en carbone.
  • GPT-4 a des émissions nettement plus élevées que d'autres modèles d'IA comparables : Par rapport à d'autres technologies d'IA effectuant des tâches similaires, les émissions de GPT-4 sont nettement plus élevées. Cela s'explique en grande partie par le plus grand nombre d'heures de GPU requises pour le pré-entraînement - la durée cumulée pendant laquelle les GPU individuels sont utilisés pour le deep learning. Par conséquent, GPT-4 nécessite plus d'électricité, plus de serveurs et une plus grande consommation globale de ressources.
  • La consommation d'énergie de GPT-4 est environ 20 fois plus élevée que celle de GPT-3 : L'intensité de calcul de GPT-4 est alimentée par ses 1,8 trillion de paramètres, ce qui entraîne une augmentation significative de la consommation d'électricité, du nombre d'heures de GPU et de l'impact environnemental global. Par rapport à GPT-3, GPT-4 nécessite près de 20 fois plus d'énergie pour ces mêmes facteurs.
  • La course à l'IA amplifie les besoins en énergie : De manière générale, les développeurs d'IA se livrent à une course effrénée en vue d'augmenter les paramètres des modèles, repoussant ainsi les limites de la puissance informatique. Comme les modèles sont entraînés sur des ensembles de données de plus en plus vastes et de plus en plus complexes, l'énergie nécessaire à l'entraînement continue d'augmenter, amplifiant ainsi l'empreinte environnementale globale de l'IA.
Alors que les gens ont de plus en plus recours à l'IA et que son empreinte environnementale augmente, le secteur se voit contraint de trouver des solutions plus durables. Bien que GPT-4 et d’autres modèles similaires aient défini de nouveaux benchmarks de performance, leur forte demande énergétique met en lumière le besoin urgent de renforcer leur efficacité.

C'est là qu'interviennent de nouveaux acteurs comme DeepSeek, qui prétend offrir des fonctionnalités d'IA comparables pour une fraction de la puissance de calcul. Est-ce que cela pourrait signifier une évolution vers un développement de l'IA plus durable ? Si l'approche de DeepSeek s'avère évolutive, elle pourrait faire entrevoir un avenir où l'innovation en matière d'IA et la responsabilité environnementale iraient de pair.

DeepSeek - la révolution de l'IA à moindre coût écologique ?

Le 20 janvier, l'entreprise chinoise DeepSeek a secoué l'industrie de l'IA en promettant une percée qui pourrait considérablement réduire l'empreinte énergétique de l'intelligence artificielle. L'entreprise affirme que son modèle R1 affiche des performances comparables à celles du GPT-4 d'OpenAI tout en utilisant une fraction de la puissance de calcul. 

Contrairement à ses rivaux américains, qui ont recours à des milliers de puces Nvidia surpuissantes, DeepSeek affirme avoir entraîné son modèle en utilisant seulement 2 000 puces Nvidia H800, soit une fraction des 16 000 puces et plus nécessaires pour des modèles similaires tels que le Llama 3.1 de Meta. Résultat ? L'entraînement de DeepSeek R1 n'aurait coûté que 6 millions de dollars, contre 60 millions de dollars pour le modèle de Meta.

À première vue, cette avancée en matière d'efficacité pourrait changer la donne sur le plan environnemental. La demande croissante en énergie de l'IA a fait naître des inquiétudes, puisque les projections suggèrent que les data centers pourraient représenter jusqu'à 12 % de la consommation d'électricité des États-Unis d'ici 2028, contre 4,4 % en 2023. On peut s'attendre à ce que cette tendance soit la même pour d'autres pays ayant une forte dépendance à l'égard de la technologie.

Globalement, les infrastructures d'IA sont déjà responsables d'environ 1 % des émissions de gaz à effet de serre associées à l'énergie, et l'Agence internationale de l'énergie (AIE) met en garde contre le fait que la demande mondiale d'électricité associée à l'IA et aux data centers pourrait doubler d'ici l'année prochaine, atteignant des niveaux comparables à la consommation annuelle totale d'électricité du Japon.

Un nouveau modèle d’efficacité ?

L'architecture « mélange d'experts » (MoE) de DeepSeek est l'une des principales innovations à l'origine de cette efficacité. Contrairement aux modèles d'IA conventionnels qui activent l'ensemble de leur réseau pour chaque requête, l'architecture MoE attribue des tâches à des sous-modèles spécialisés, n'activant que la puissance de calcul nécessaire pour une requête spécifique. Ce type de calcul sélectif permet de réduire la consommation d'énergie globale sans compromettre la performance.

De plus, DeepSeek affirme que son modèle est plus efficace au niveau du stockage des données et qu'il ne fait pas appel au même niveau de matériel informatique ultra performant, ce qui contribue à réduire encore les besoins en ressources.

L'entreprise a été contrainte de développer ces innovations, en raison des sanctions américaines limitant l'accès aux puces IA les plus avancées de Nvidia. Cette restriction a obligé DeepSeek à concevoir des modèles qui maximisent l'efficacité plutôt que de s'appuyer sur une grande puissance informatique.

DeepSeek est-il en mesure de réduire l’empreinte carbone de l’IA ?

Si ce que prétend DeepSeek est vrai, son approche pourrait considérablement réduire les émissions associées à l'IA. Parmi les principaux avantages, citons :

  • Une demande d'énergie plus faible : L'entraînement du modèle V3 de DeepSeek n'a nécessité que 2,78 millions d'heures de GPU, alors que le modèle Llama 3.1 de Meta a utilisé 30,8 millions d'heures de GPU malgré l'utilisation de puces plus récentes et plus performantes.
  • Un nombre réduit de puces d'IA : Le fait que DeepSeek utilise 2 000 puces Nvidia H800, contre plus de 16 000 pour ses concurrents, permet de réduire la demande de production de puces, qui elle-même nécessite beaucoup de ressources.
  • Des capacités de traitement locales : En tant que modèle « open weight », l'IA de DeepSeek peut être téléchargée et exploitée sur des périphériques locaux, ce qui réduit le besoin de cloud computing et l'utilisation de data centers. 
  • Une consommation d'eau plus faible : Les data centers consomment non seulement d'énormes quantités d'électricité, mais aussi de grandes quantités d'eau à des fins de refroidissement. Une étude réalisée en 2023 a révélé que l'entraînement d'un grand modèle d'IA tel que GPT-3 pouvait consommer près d'un million de litres d'eau. Plus inquiétant encore, la demande mondiale en matière d'IA devrait représenter entre 4,2 et 6,6 milliards de mètres cubes de prélèvements d'eau en 2027. Si DeepSeek parvient à réduire la dépendance à l'égard des data centers à grande échelle, il pourrait contribuer à atténuer cet impact.

L'efficacité risque-t-elle d'accroître la demande ?

Si les avancées de DeepSeek en matière d'efficacité sont prometteuses, elles soulèvent également des inquiétudes : cette efficacité accrue pourrait entraîner une augmentation de la consommation globale. Le PDG de Microsoft, Satya Nadella, a reconnu ce risque en écrivant sur X : « Le paradoxe de Jevons frappe à nouveau ! À mesure que l'IA devient plus efficace et plus accessible, nous allons voir son utilisation monter en flèche, pour en faire une denrée dont nous ne pourrons plus nous passer. »

Si les modèles d'IA deviennent moins chers et plus efficaces, leur utilisation pourrait croître de manière exponentielle, augmentant ainsi la demande d'électricité au lieu de la réduire.

IA et durabilité : quel avenir ?

Le modèle de DeepSeek annonce un changement possible en ce qui concerne le développement de l'IA, en remettant en question l'hypothèse selon laquelle l'expansion de l'IA nécessite des infrastructures et une consommation d'énergie toujours plus importantes. Si les entreprises d'IA adoptent des architectures similaires à faible consommation d'énergie et des fonctionnalités de traitement locales, le secteur pourrait devenir moins dépendant des data centers gourmands en énergie.

Il reste cependant à voir si les gains d'efficacité revendiqués par DeepSeek permettront de réduire de manière significative les émissions liées à l'IA à l'échelle mondiale.

Pour que l'IA devienne réellement durable, les améliorations apportées à l'efficacité des modèles doivent s'accompagner d'un déploiement responsable et d'investissements dans des infrastructures d'énergie propre. Autrement, l'empreinte environnementale de l'IA continuera de croître, alors même que les modèles individuels deviennent plus efficaces.

Comment réduire l’impact de l’IA ?

À mesure que l’utilisation de l'IA se répand, son impact environnemental s'accroît. Toutefois, il existe plusieurs moyens de réduire l'intensité énergétique liée à l'IA générative :

  1. Un matériel optimisé : Le passage des GPU NVIDIA aux TPU (Tensor Processing Units ou unités de traitement tensoriel), telles que les TPU de Google, peut améliorer l'efficacité énergétique et réduire la consommation d'électricité. Les TPU sont spécialement conçues pour les charges de travail relatives au « machine learning », ce qui les rend plus efficaces en termes de consommation d'énergie.
  2. Un cloud computing plus intelligent : Le choix du data center a un impact significatif sur les émissions. Par exemple, le data center de Google dans l'Iowa, alimenté en grande partie par de l'énergie propre, a permis de réduire les émissions de 5,4 fois comparé à des data centers fonctionnant sur des réseaux à forte consommation d'énergie fossile.
  3. Des mécanismes d'entraînement plus efficaces : L'apprentissage étant l'une des étapes les plus énergivores dans le développement de l'IA, l'optimisation des algorithmes d'entraînement peut réduire les émissions jusqu'à 88 fois, en diminuant les besoins de calcul et la consommation d'énergie. Des techniques telles que l'élagage des modèles, la distillation des connaissances et la quantification peuvent améliorer l'efficacité sans sacrifier les performances.
  4. Des politiques et des benchmarks plus stricts : L'industrie de l'IA manque actuellement de normes réglementaires claires concernant la durabilité. La mise en œuvre de benchmarks à l'échelle du secteur pourrait encourager une utilisation plus responsable de l'énergie, par exemple en exigeant des développeurs d'IA qu'ils rendent compte de la totalité de l'impact carbone lié à l'entraînement des modèles, en réglementant les activités d'IA à forte intensité énergétique et en incitant des entreprises telles que Google, OpenAI et Meta à faire preuve d'une plus grande transparence dans leur reporting d'émissions.
  5. Les énergies renouvelables et une localisation intelligente des data centers : L'alimentation des data centers par des énergies renouvelables peut réduire considérablement l'empreinte carbone de l'IA. De plus, choisir des sites dotés de réseaux énergétiques propres peut faire une grande différence. Par exemple, l'exécution de modèles d'IA en France - où l'électricité est principalement d'origine nucléaire et renouvelable - produit beaucoup moins d'émissions que dans certaines régions des États-Unis, qui dépendent davantage des énergies fossiles.

Si l'IA permet d'améliorer l'efficacité, ses besoins en énergie doivent être gérés avec soin.De telles stratégies proactives seront essentielles pour assurer un avenir plus durable à l'IA.

Plus d'articles

Tout voir
couverture article
Secteurs d'activité
Transport
1 min

Mobilité douce : que faut-il savoir ?

1 min
Niveau

La mobilité douce constitue un important levier pour réduire les émissions de gaz à effet de serre des transports. Quels sont les modes de déplacement dits doux ? Explications.

Logo label E+C-
Secteurs d'activité
Construction
1 min

Qu’est-ce que le label E+C- ?

1 min
Niveau

Le label E+C- encourage la construction de bâtiments décarbonés et performants en combinant deux indicateurs clés : l'Énergie (E+) et le Carbone (C-).