
Mobilité douce : que faut-il savoir ?
La mobilité douce constitue un important levier pour réduire les émissions de gaz à effet de serre des transports. Quels sont les modes de déplacement dits doux ? Explications.
ESG / RSE
Secteurs d'activité
Écologie
L'intelligence artificielle (IA) a explosé ces dernières années, s'invitant dans notre quotidien et promettant de remodeler le marché du travail. Qu'il s'agisse d'utiliser des chatbots en guise de service client, de recourir à l'IA générative pour concevoir des graphiques et de la musique, ou de mettre à profit des algorithmes basés sur l'IA pour prédire les tendances financières, cette technologie est partie pour durer.
L’IA est en train de se développer à une vitesse phénoménale :
Qu'est-ce qui alimente ce phénomène ? Trois facteurs principaux : une puissance informatique moins chère, de meilleurs modèles d'apprentissage automatique et la prise de conscience par les entreprises que l'IA est bien plus qu’une expérience - elle s’est transformée en nécessité.
D'un côté, l'IA automatise les tâches, réduisant les plus répétitives d'entre elles et rationalisant les opérations. Ainsi, de nombreuses fonctions administratives et de traitement des données se trouvent menacées.
Le Fonds monétaire international estime que l'IA pourrait impacter 40 % des emplois dans le monde, et que certaines fonctions pourraient même disparaître complètement.
Mais l'IA ne fait pas qu'éliminer des emplois, elle en crée de nouveaux. Des domaines tels que l'éthique de l'IA, l'audit de l'IA et l'ingénierie de l'apprentissage automatique n'existaient pas il y a dix ans. De nombreuses entreprises s'empressent aujourd' hui d'embaucher des spécialistes de l'IA, et les travailleurs capables d’utiliser l'IA de manière efficace sont de plus en plus prisés.
Enfin, il y a aussi la révolution des « agents IA ». Les entreprises ont de plus en plus recours à des travailleurs numériques dotés d'IA - des assistants virtuels qui se chargent de traiter les mails, planifier les réunions, rédiger les rapports et même analyser les tendances du marché.
Des exemples ?
Malgré son utilisation répandue, le public n'est pas toujours conscient de la présence de l'IA au quotidien. Selon une enquête du Pew Research Center auprès de 11 004 adultes aux États-Unis, 27 % des personnes interrogées disent interagir avec l'IA plusieurs fois par jour, tandis que 28 % pensent qu'elles l'utilisent environ une fois par jour ou plusieurs fois par semaine. 44 % des répondants pensent ne pas interagir avec l'IA de manière régulière.
Cet écart de perception suggère que le rôle de l'IA est bien plus vaste que ce que les gens imaginent. Dans le cadre de la même enquête, seulement 30 % des Américains ont pu identifier correctement six exemples communs d'utilisation d'IA dans la vie quotidienne. Cela signifie que si de nombreuses personnes déclarent utiliser l'IA avec modération, il est probable qu'elles aient des interactions avec cette technologie beaucoup plus fréquemment qu'elles ne le pensent.
L'IA ne fait pas que rendre la vie plus pratique, elle est aussi en train de remodeler certains secteurs d'activité.
Au-delà de son impact environnemental, l'expansion rapide de l'IA a aussi suscité des inquiétudes concernant son utilisation abusive. Par exemple, lors de l'élection présidentielle aux États-Unis en 2024, Donald Trump a fait circuler des deepfakes de Taylor Swift, faisant croire à ses fans que celle-ci l'avait soutenu.
À mesure que les contenus générés par l'IA se perfectionnent, il deviendra de plus en plus important de tenir compte des risques éthiques - et des besoins énergétiques supplémentaires liés à l'entraînement et à l'exécution de ces modèles.
Malgré ses nombreux avantages, l'IA présente un prix élevé pour l'environnement.
La consommation de ressources liée à l'IA ne peut que croître à mesure que la concurrence s'accélère dans ce secteur. Aux États-Unis, un investissement privé de 500 milliards de dollars réalisé par OpenAI, SoftBank et Oracle vise à étendre l'infrastructure de l'IA en construisant de nouveaux data centers, ce qui accentue les préoccupations concernant l'utilisation d’eau et d’énergie. Parallèlement, le lancement de DeepSeek par la Chine a perturbé le marché, marquant officiellement le début d'une course mondiale à l'IA, dont les conséquences sur l'environnement n'iront pas en s'arrangeant.
Parmi les nombreuses applications de l'IA qui redessinent notre monde, l'une d'entre elles se distingue par son impact et son ampleur : ChatGPT. Avec des centaines de millions d'utilisateurs et une présence croissante dans les flux de travail quotidiens, les chatbots alimentés par l'IA font grimper la demande d'énergie à un niveau jamais atteint auparavant.
Le coût environnemental de ces systèmes est particulièrement frappant, car l'énergie nécessaire pour générer du texte, répondre aux requêtes et maintenir des conversations en continu se traduit par une empreinte carbone colossale. ChatGPT, l'un des modèles d'IA les plus utilisés, constitue une véritable étude de cas, illustrant à quel point l'IA est devenue énergivore.
En décembre 2024, ChatGPT avait atteint un nombre stupéfiant d'utilisateurs : 300 millions, un chiffre qui continue de grimper au fur et à mesure que l'IA s'intègre à la vie quotidienne.
Pourtant, alors que le nombre de personnes ayant recours à l'IA monte en flèche, l'impact environnemental de ChatGPT reste largement méconnu. Les data centers devraient connaître une expansion de 28 % d'ici à 2030, et les besoins énergétiques de l'IA augmentent rapidement, avec des estimations qui suggèrent qu'elle pourrait représenter 3 à 4 % de la consommation mondiale d'électricité d'ici la fin de cette décennie. Les émissions de carbone liées à l'IA devraient également doubler entre 2022 et 2030, amplifiant ainsi son empreinte environnementale.
La précédente itération de ChatGPT, ChatGPT-3, avec 175 milliards de paramètres, consommait 1 287 MWh d'électricité par an, soit l'équivalent de 502 tonnes d'émissions de carbone, ou l'empreinte annuelle de 112 voitures à essence !
En 2025, ChatGPT est plus pertinent que jamais, les utilisateurs ayant recours à l'IA pour toutes sortes de tâches, de la planification des vacances à la gestion de mails professionnels fastidieux.
Cependant, à mesure que l'IA devient plus sophistiquée, le besoin de systèmes multi-agents (via lesquels plusieurs modèles d'IA travaillent ensemble pour accomplir des tâches complexes) va augmenter. Cette évolution pourrait accroître sensiblement les besoins informatiques et la consommation d'énergie, ce qui, à terme, augmenterait l'empreinte carbone globale de l’IA.
Alors, comment ChatGPT va-t-il façonner notre quotidien en 2025 ?
Alors que le rôle de ChatGPT au quotidien se développe, les questions relatives à son impact environnemental, à son utilisation éthique et à ses implications à long terme en matière d'interaction humaine se posent également.
Prenons une tâche simple comme l'utilisation de l'IA pour rédiger un mail de routine. Bien que la rédaction dans un seul langage puisse sembler anodine, ChatGPT s'appuie fortement sur les GPU (unités de traitement graphique) pour les entraînements et les inférences, en raison de leurs fonctionnalités de traitement parallèle avancées, ce qui rend les interactions d'IA, même simples, étonnamment gourmandes en énergie.
Ainsi, la génération d'une seule réponse d'IA consomme à peu près la même quantité d'énergie que le chargement complet d'un smartphone. Cela souligne à quel point l'utilisation de l'IA, même occasionnelle, contribue à l'excès d'émissions de carbone, en particulier à grande échelle.
Une étude, menée par Hugging Face et l'université Carnegie Mellon et dirigée par Sasha Luccioni, chercheur en IA chez Hugging Face, a évalué 88 modèles d'IA différents effectuant des tâches courantes telles que :
Le tableau ci-dessous présente les résultats de l'étude relative à la consommation d'énergie de différentes tâches d’IA.
Tâche IA | Énergie utilisée pour 1 000 requêtes (kWh) | Émissions de CO₂ pour 1 000 requêtes |
---|---|---|
Classification de texte | 0,002 | ~0,3g CO₂e |
Génération de texte | 0,047 | ~7,5g CO₂e |
Synthèse | 0,049 | ~8g CO₂e |
Classification d’images | 0,007 | ~1,1g CO₂e |
Détection d’objets | 0,038 | ~6,1g CO₂e |
Génération d’images | 2,9 | 1,594g CO₂e (6,6 km parcourus) |
Les résultats de l'étude mettent en évidence l'importance des besoins énergétiques de l'IA générative par rapport à ceux de l'IA axée sur les tâches.
Des recherches complémentaires confirment ces résultats, démontrant que la génération de 1 000 images peut produire autant de CO₂ que de parcourir 6,6 km dans une voiture à essence. En revanche, la génération de texte nécessite beaucoup moins d'énergie - elle ne consomme que 16 % d'une charge complète de smartphone, avec des émissions équivalentes à un trajet de 0,0006 miles seulement.
Des études ont révélé qu'en moyenne, la génération d'images par l'IA est 60 fois plus gourmande en énergie que la génération de texte.
Au-delà de l'inférence, les modèles d'IA générative nécessitent également un entraînement intensif, ce qui augmente davantage leur empreinte énergétique globale. Par exemple, l'entraînement du modèle d'IA BLOOMz (qui compte plus de 100 milliards de paramètres) consomme 0,0001 kWh par requête. Pour donner un ordre d'idée, même le modèle de génération d'images le moins économe en énergie a utilisé autant d'énergie que 522 charges de smartphone pour seulement 1 000 inférences.
Dans l'ensemble, le passage aux réseaux d'agents d'IA et l'utilisation accrue de l'IA générative risquent d'entraîner une augmentation significative de la consommation d'énergie, ce qui sollicitera davantage les data centers et suscitera des inquiétudes concernant l'impact du développement de l'IA sur l'environnement.
Mais quelle est l'ampleur de cet impact ? Pour quantifier le coût environnemental de l'IA, nous devons évaluer l'empreinte carbone de l'un des modèles d'IA les plus utilisés, ChatGPT4.
Avant de nous plonger dans les chiffres, examinons d'abord la différence entre GPT-4 et ChatGPT.
Bien que ChatGPT et GPT-4 soient souvent mentionnés de manière interchangeable, ils répondent à des besoins distincts :
En résumé, GPT-4 est le socle, tandis que ChatGPT est une application sur mesure conçue pour améliorer les expériences d'IA axées sur le dialogue.
Pour évaluer les émissions associées à GPT-4, Greenly a modélisé un cas d'usage réaliste : répondre automatiquement à 1 million de mails par mois pendant une année. Ce scénario tient compte des émissions générées au cours de deux étapes clés : l'entraînement et l'exécution, qui contribuent tous deux à l'empreinte carbone globale de GPT-4.
Pour l'entraînement, cette évaluation suppose que 25 000 GPU NVIDIA A100 ont été utilisés sur une période de 100 jours à une charge de travail de 30 %. Les data centers sont modélisés comme des infrastructures à grande échelle, bien optimisées, avec une efficacité énergétique (PUE) de 1,1, situées aux États-Unis, où le bouquet énergétique moyen émet 403,6 gCO₂e/kWh (selon les données de l'AIE).
En prenant en compte à la fois les phases d'entraînement et d'exécution, cette méthodologie fournit une vue d'ensemble de l'impact carbone de GPT-4 dans le cadre d'une application commerciale en situation réelle.
GPT-4 doit d'abord être entraîné pour devenir compétent et efficace dans la rédaction de réponses appropriées aux mails - un processus qui nécessite une puissance de calcul importante pendant de nombreuses heures. Dans ce scénario, conformément à notre méthodologie, nous supposons que l'entraînement a lieu dans de vastes data centers avec une efficacité énergétique (PUE) de 1,1.
Entraîner GPT-4 dans un data center nécessite un éventail d'équipements, y compris des serveurs, des systèmes de refroidissement et une infrastructure réseau. Plutôt que de comptabiliser le fonctionnement continu de ces équipements sur une année entière, l'impact environnemental est calculé en étalant la consommation énergétique de la période d'entraînement de 100 jours sur une année. Il en résulte un total de 5 759 430 kgCO₂e (kilogrammes d'équivalent dioxyde de carbone).
En plus de la consommation directe d'énergie, les data centers contribuent également aux émissions liées aux fuites de réfrigérant des systèmes de refroidissement, qui sont essentiels pour éviter la surchauffe dans les environnements informatiques à haute performance. Sur une année, on estime que ces fuites de réfrigérant produisent 49 587 kgCO₂e supplémentaires.
La fabrication des GPU utilisés pour l'entraînement de GPT-4 a également une empreinte significative, avec une production évaluée à 1 329 141 kgCO₂e (sur la base d'une durée de vie de 4 ans et d'une charge de travail de 30 %).
Les émissions totales liées à l'entraînement de GPT-4 sur une année s'élèvent donc à 7 138 158 kgCO₂e.
Une fois GPT-4 dûment entraîné, il peut être déployé pour répondre automatiquement à 1 million de mails par mois. Sur une période d'un an, cela représente 12 millions de mails, ainsi que les émissions de carbone indiquées ci-après.
En tenant compte de l'électricité consommée, des besoins en refroidissement et de la fabrication du serveur, l 'utilisation de GPT-4 pour accomplir cette tâche se traduit par un total de 514 800 kgCO₂e sur une année, soit 42 900 kgCO₂e par mois.
Il est à noter que si GPT-4 était utilisé pour répondre à des mails dans plus d'une langue, il serait nécessaire d’effectuer l’entraînement de la technologie pour chacune d’entre elles. Cela signifie que les émissions totales augmentent avec le nombre de versions linguistiques requises, ce qui rend l'empreinte carbone non négligeable pour les entreprises travaillant avec plusieurs langues.
Toutefois, l'impact peut être atténué en ajustant la fréquence d'entraînement ou en utilisant le même modèle pour des tâches multiples, ce qui permet d'amortir son empreinte environnementale globale sur un plus grand nombre d'applications.
C'est là qu'interviennent de nouveaux acteurs comme DeepSeek, qui prétend offrir des fonctionnalités d'IA comparables pour une fraction de la puissance de calcul. Est-ce que cela pourrait signifier une évolution vers un développement de l'IA plus durable ? Si l'approche de DeepSeek s'avère évolutive, elle pourrait faire entrevoir un avenir où l'innovation en matière d'IA et la responsabilité environnementale iraient de pair.
Le 20 janvier, l'entreprise chinoise DeepSeek a secoué l'industrie de l'IA en promettant une percée qui pourrait considérablement réduire l'empreinte énergétique de l'intelligence artificielle. L'entreprise affirme que son modèle R1 affiche des performances comparables à celles du GPT-4 d'OpenAI tout en utilisant une fraction de la puissance de calcul.
Contrairement à ses rivaux américains, qui ont recours à des milliers de puces Nvidia surpuissantes, DeepSeek affirme avoir entraîné son modèle en utilisant seulement 2 000 puces Nvidia H800, soit une fraction des 16 000 puces et plus nécessaires pour des modèles similaires tels que le Llama 3.1 de Meta. Résultat ? L'entraînement de DeepSeek R1 n'aurait coûté que 6 millions de dollars, contre 60 millions de dollars pour le modèle de Meta.
À première vue, cette avancée en matière d'efficacité pourrait changer la donne sur le plan environnemental. La demande croissante en énergie de l'IA a fait naître des inquiétudes, puisque les projections suggèrent que les data centers pourraient représenter jusqu'à 12 % de la consommation d'électricité des États-Unis d'ici 2028, contre 4,4 % en 2023. On peut s'attendre à ce que cette tendance soit la même pour d'autres pays ayant une forte dépendance à l'égard de la technologie.
Globalement, les infrastructures d'IA sont déjà responsables d'environ 1 % des émissions de gaz à effet de serre associées à l'énergie, et l'Agence internationale de l'énergie (AIE) met en garde contre le fait que la demande mondiale d'électricité associée à l'IA et aux data centers pourrait doubler d'ici l'année prochaine, atteignant des niveaux comparables à la consommation annuelle totale d'électricité du Japon.
L'architecture « mélange d'experts » (MoE) de DeepSeek est l'une des principales innovations à l'origine de cette efficacité. Contrairement aux modèles d'IA conventionnels qui activent l'ensemble de leur réseau pour chaque requête, l'architecture MoE attribue des tâches à des sous-modèles spécialisés, n'activant que la puissance de calcul nécessaire pour une requête spécifique. Ce type de calcul sélectif permet de réduire la consommation d'énergie globale sans compromettre la performance.
De plus, DeepSeek affirme que son modèle est plus efficace au niveau du stockage des données et qu'il ne fait pas appel au même niveau de matériel informatique ultra performant, ce qui contribue à réduire encore les besoins en ressources.
L'entreprise a été contrainte de développer ces innovations, en raison des sanctions américaines limitant l'accès aux puces IA les plus avancées de Nvidia. Cette restriction a obligé DeepSeek à concevoir des modèles qui maximisent l'efficacité plutôt que de s'appuyer sur une grande puissance informatique.
Si ce que prétend DeepSeek est vrai, son approche pourrait considérablement réduire les émissions associées à l'IA. Parmi les principaux avantages, citons :
Si les avancées de DeepSeek en matière d'efficacité sont prometteuses, elles soulèvent également des inquiétudes : cette efficacité accrue pourrait entraîner une augmentation de la consommation globale. Le PDG de Microsoft, Satya Nadella, a reconnu ce risque en écrivant sur X : « Le paradoxe de Jevons frappe à nouveau ! À mesure que l'IA devient plus efficace et plus accessible, nous allons voir son utilisation monter en flèche, pour en faire une denrée dont nous ne pourrons plus nous passer. »
Si les modèles d'IA deviennent moins chers et plus efficaces, leur utilisation pourrait croître de manière exponentielle, augmentant ainsi la demande d'électricité au lieu de la réduire.
Il reste cependant à voir si les gains d'efficacité revendiqués par DeepSeek permettront de réduire de manière significative les émissions liées à l'IA à l'échelle mondiale.
Pour que l'IA devienne réellement durable, les améliorations apportées à l'efficacité des modèles doivent s'accompagner d'un déploiement responsable et d'investissements dans des infrastructures d'énergie propre. Autrement, l'empreinte environnementale de l'IA continuera de croître, alors même que les modèles individuels deviennent plus efficaces.
À mesure que l’utilisation de l'IA se répand, son impact environnemental s'accroît. Toutefois, il existe plusieurs moyens de réduire l'intensité énergétique liée à l'IA générative :
Si l'IA permet d'améliorer l'efficacité, ses besoins en énergie doivent être gérés avec soin.De telles stratégies proactives seront essentielles pour assurer un avenir plus durable à l'IA.