Article publié dans Le Monde le 16 janvier 2024

Deux faits récents illustrent bien les contradictions du moment autour de l’Intelligence Artificielle (IA).
La COP28 a intronisé l’IA comme une solution en lançant le grand défi de l’innovation en matière d’IA afin d’identifier et de soutenir le développement de solutions alimentées par l’IA.

Dans le même temps, les géants de l’IA ont cessé d’être transparents sur la consommation de leurs datacenters quand les usages des IA Génératives ont explosé (100 millions d’utilisateurs quotidiens de ChatGPT). Or nous savons, selon les rares études publiques disponibles, qu’une discussion avec ChatGPT consommerait l’équivalent d’une bouteille d’eau et le seul entraînement de GPT3.5 aurait couté l’équivalent carbone de 136 allers-retours Paris-New-York !

Silence des géants sur leurs consommations

On compare souvent la data avec le pétrole, et la révolution de l’IA générative avec celle du moteur à explosion. C’est assez vrai, par la valeur qu’elles créent déjà et qu’elles promettent de générer demain, en témoigne la valorisation des acteurs de l’IA. C’est hélas vrai aussi en termes d’externalités négatives comme l’illustre par exemple ce projet de datacenter Meta à Talavera de la Reina qui en plein stress hydrique promettait de prélever 665 millions de litres d’eau par an.

Relevons néanmoins deux différences de taille :

  • d’une part on ne peut plus dire que l’on ne sait pas et, dans ce contexte, on est en droit d’être surpris et démuni face au silence des géants sur leurs consommations ;
  • d’autre part à la différence du pétrole, il n’y a aucun horizon de pénurie en data, bien au contraire.

L’Internet des objets, les réseaux sociaux, le e-commerce en produisent exponentiellement, infiniment plus vite que notre bonne terre n’arrive à transformer les roches-mères en pétrole.

L'IA et les enjeux environnementaux : une véritable rupture

L’Intelligence artificielle consomme des ressources pour la production de puces, pour le stockage de données, pour l’entraînement des modèles, pour chaque utilisation et enfin pour les données qu’elle génère, alimentant ainsi le cycle.

La plupart des IA actuelles (antifraude, marketing, maintenance) utilisent des modèles simples nécessitant des ressources proches d’autres usages digitaux. Le traitement du langage naturel et de l’image avait déjà eu des impacts plus significatifs en raison de la complexité pour une machine à comprendre ces productions humaines, nécessitant souvent l’utilisation de réseaux de neurones.

Mais l’IA générative représente une vraie rupture en termes de consommation et d’impact pour trois raisons.
  1. La première est que pour tendre vers une IA dite « générale », les modèles doivent être entraînés sur « toutes les données du monde » et pour cela démultiplient les couches et les paramètres du réseau de neurones, nécessitant des capacités titanesques.
  2. La deuxième est la génération d’une réponse originale pour laquelle chaque mot ou pixel mobilise l’arsenal neuronal complet – ce qui revient un peu comme à utiliser un lanceur spatial dédié pour chaque boulon de satellite…
  3. La troisième est l’appétence du public pour ces nouveaux assistants en créant là un nouvel usage qui risque bien de devenir aussi massif que celui de la voiture, des moteurs de recherche ou encore des smartphones.

A l’heure où les besoins primaires tels que l’alimentation, l’accès à l’eau, le déplacement ou encore le logement deviennent des luxes, on est en droit de se demander si parler avec une IA – aussi brillante soit-elle – est bien raisonnable pour sauver notre planète.

Pour ne pas jeter le bébé avec l’eau du bain, notons les bénéfices concrets des IA sur l’environnement : allant notamment des réseaux énergétiques intelligents à la planification d’énergies renouvelables, en passant par le transport multimodal ou le tri des déchets. Dernièrement, les travaux de Claire Monteleoni, Titulaire de la chaire Choose France AI et directrice de recherche à l’Inria, ont démontré que l’utilisation de données issues de modèles physiques combinée à un réseau neuronal permettait de prévoir la trajectoire des ouragans, phénomènes complexes très difficiles à prédire.

Une question demeure sur la contribution positive des IA génératives telles ChatGPT, parce qu’on en voit aujourd’hui surtout les côtés gadgets et parfois négatifs. En se projetant, la force de ces IA est leur capacité à proposer des solutions en réconciliant des monceaux de données hétérogènes, quand la faiblesse des sciences physiques est justement la difficulté à rapprocher des domaines et des données hétérogènes… on se dit que le potentiel est énorme. M3GNet, une IA open-source développée par l’université de Californie, promet par exemple 31 millions de nouveaux matériaux de constructions, dont certains très écologiques ; la balance « coût bénéfice » pour un secteur aussi consommateur que le bâtiment pourrait se justifier.

Pour conclure, exigeons la transparence des acteurs de l’IA sur les consommations, fléchons la localisation de datacenters là où l’énergie est décarbonée et l’eau abondante, encourageons les « écogestes IA » pour éviter une surutilisation pouvant dériver en bombe climatique. Surtout, accélérons la recherche en IA pour pouvoir utiliser ce que l’IA fait de mieux, à savoir corréler des données trop riches pour nos cerveaux… en imaginant des IA légères spécialisées par champ d’application et en s’inspirant aussi de ce que le cerveau humain a de mieux, à savoir sa frugalité, lui qui ne consomme que 20 Watts comparés aux 150 000 Watt d’AlphaGo, comme nous l’a rappelé Damien Querlioz, chercheur au CNRS.

Poursuivons l'exploration :

Posez vos questions à nos experts Data & IA et découvrez comment nous pouvons vous aider à tirer pleinement parti du potentiel de l’IA pour votre organisation.

Au travers de notre série d’articles “Road to AI”, explorez les multiples facettes de l’Intelligence Artificielle et libérez tout son potentiel pour votre entreprise.