L’IA face au défi environnemental : Les nouveaux enjeux de la révolution technologique
Les technologies numériques occupent une place centrale dans notre vie quotidienne, mais leur impact environnemental constitue un défi de taille. Alors que les centres de données se multiplient, l’inquiétude grandit quant à l’empreinte carbone du secteur technologique. Cependant, selon les partisans de l’intelligence artificielle (IA), cette dernière pourrait bien être la solution.
Ce défi revêt une importance cruciale, car d’ici à 2025, le secteur devrait absorber 20% de la production mondiale d’électricité et contribuer à hauteur de 5,5% des émissions de carbone globales.
La prolifération constante d’applications et d’usages toujours plus gourmands en énergie risque d’aggraver encore la situation.
Arun Iyengar, le PDG d’Untether AI, une entreprise spécialisée dans la création de semi-conducteurs écoénergétiques pour l’IA, admet que « la boîte de Pandore est ouverte ». Il souligne qu’il existe deux voies possibles : « Nous pouvons exploiter l’IA de manière à améliorer nos pratiques pour les rendre compatibles avec les impératifs climatiques, ou bien ne rien faire et en subir les conséquences. »
L’adaptation des serveurs doit s’opérer dès maintenant, alors qu’ils sont en cours de transformation pour répondre aux besoins de l’IA, une évolution qualifiée de « rupture majeure pour l’informatique » par un responsable de Google.
Le développement des outils d’intelligence artificielle générative, tels que le chatbot GPT-4, qui a contribué au succès de ChatGPT, ou le Palm2 de Google pour Bard, se divise en deux étapes énergivores : l’entraînement et la mise en service.
En 2019, des chercheurs de l’Université du Massachusetts qui ont participé à l’entraînement de ces outils ont fait une découverte. Il s’agit de l’entraînement d’un seul de ces modèles émet autant de carbone que cinq voitures sur l’ensemble de leur cycle de vie.
Plus récemment, une étude conjointe de Google et de l’Université de Berkeley a évalué que l’entraînement du robot génératif GPT-3 avait entraîné l’émission de 552 tonnes de carbone, ce qui équivaut à la quantité émise par une voiture parcourant deux millions de kilomètres.
Son successeur, GPT-4, a été entraîné avec 570 fois plus de paramètres, et ce nombre continuera d’augmenter à mesure que l’IA deviendra plus puissante et omniprésente.
À la base de ce développement se trouvent les processeurs graphiques, ou GPU, fabriqués par Nvidia, qui sont particulièrement énergivores.
En outre, une fois l’entraînement terminé, la mise en service des outils d’IA générative via le cloud nécessite également une quantité considérable d’énergie en raison de la consommation associée aux requêtes reçues. Cette phase de mise en service dépasse de loin la consommation énergétique de la phase d’entraînement.
Cependant, il convient de noter que pour les serveurs hébergés dans le cloud, les besoins en processeurs puissants ne sont plus aussi impératifs, ce qui ouvre la porte à des alternatives plus respectueuses de l’environnement.
Les principaux acteurs du cloud, tels qu’Amazon Web Service (AWS), Microsoft, ou Google, affirment qu’ils sont engagés dans la réduction de leur empreinte carbone. AWS a même annoncé son objectif de parvenir à la neutralité carbone d’ici 2040, tandis que Microsoft vise à devenir « une entreprise à émissions négatives et sans déchet » d’ici 2030.
Les premières indications suggèrent que ces grandes entreprises travaillent effectivement en ce sens. Selon les données de l’Agence internationale de l’énergie (AIE), entre 2010 et 2018, bien que l’utilisation des centres de données dans le monde ait augmenté de 550%, leur consommation énergétique n’a augmenté que de 6%. Cela montre une tendance positive vers une utilisation plus efficace des ressources énergétiques dans le secteur du cloud.
Pour ce qui est des nouveaux magnats de l’intelligence artificielle, la question de l’empreinte carbone de leurs créations n’est pas au premier plan, car elle semble occulter le potentiel révolutionnaire de cette technologie.
Sam Altman, le fondateur d’OpenAI (à l’origine de ChatGPT), exprime cette perspective. « Une fois que nous aurons une super-intelligence véritablement puissante, résoudre le problème du réchauffement climatique ne sera pas particulièrement difficile. » Il souligne ainsi l’ampleur de nos rêves potentiels : « Imaginez un système auquel vous pouvez demander : ‘Dis-moi comment produire de l’énergie propre et bon marché de manière efficace, comment capturer le carbone de manière efficiente, et comment construire une usine capable de le faire à l’échelle mondiale.' »
Lire aussi : Drame de Saïdia : La famille Kissi réclame justice et le retour du corps d’Abdelali Mchiouer
Idem pour le PDG de Nvidia, Jensen Huang, qui estime que le déploiement massif de l’IA et des calculs plus rapides pourrait éventuellement réduire la demande en cloud, et par conséquent la consommation énergétique de ce secteur.
Grâce à l’IA, il est envisageable que les ordinateurs portables, smartphones, ou voitures se transforment en des superordinateurs économes en énergie, ne nécessitant pas de recourir continuellement au cloud pour accéder aux données.
Cependant, certains experts expriment une préoccupation différente, affirmant que la course effrénée vers l’IA détournent l’attention des risques environnementaux. Arun Iyengar, par exemple, espère que malgré les dépenses massives actuelles des grandes entreprises pour le déploiement de l’IA, elles commenceront à prendre en considération l’impact environnemental. Selon lui, les grands groupes dépensent énormément actuellement pour déployer l’IA. Je ne pense pas qu’ils s’inquiètent encore de l’impact environnemental mais je pense que ça va venir. »