Malgré toutes les avancées permises par l’intelligence artificielle, de la reconnaissance vocale aux voitures autonomes, les systèmes d’IA consomment une grande quantité d’énergie et peuvent produire d’importants volumes d’émissions polluantes qui contribuent aux changements climatiques.
Une étude réalisée l’an dernier a permis d’établir que le fait de former un système standard d’IA destiné au traitement du langage entraînait l’émission d’environ 700 kilogrammes de dioxyde de carbone, soit l’équivalent de la pollution produite par une personne effectuant un vol aller-retour entre New York et San Francisco. L’ensemble des opérations nécessaires pour bâtir et « entraîner » un système d’IA destiné à l’analyse du langage produit encore plus de pollution: jusqu’à 40 tonnes de CO2, en fonction de la source de production d’énergie. Il s’agit du double de ce que le Nord-Américain moyen produit en respirant au cours de sa vie entière.
Mais il existe des méthodes pour « nettoyer » et « rendre plus vert » l’apprentissage machine, y compris un mouvement appelé « IA verte ». Certains algorithmes sont moins énergivores que d’autres, par exemple, et plusieurs séances de formation peuvent être déplacées vers d’autres endroits où l’énergie provient de sources renouvelables.
La clé, cependant, pour les développeurs et les entreprises spécialisées en IA, consiste à connaître la consommation énergétique des séances d’apprentissage machine et jusqu’à quel point la pollution émise pourrait être réduite.
Une équipe des universités McGill et Stanford, ainsi que de la branche AI Research du géant Facebook, ont mis au point un outil qui mesure la consommation électrique d’un projet d’apprentissage machine, et ce que cela entraînera comme émissions de gaz à effet de serre.
Grandes tâches, grands besoins
« Il existe une pression importante pour que l’apprentissage machine soit en mesure de résoudre des problèmes toujours plus grands, en utilisant plus de puissance de calcul et davantage de données », affirme Dan Jurafsky, professeur en science informatique spécialisé en linguistique à Stanford. « Pendant que cela se produit, nous devons nous demander si les avantages de ces modèles informatiques lourds valent les impacts sur l’environnement. »
L’apprentissage machine se développe en effectuant des millions d’analyses statistiques pendant de longues périodes, en affinant constamment leurs modèles pour accomplir des tâches. Ces sessions de formation, qui peuvent s’étendre sur des semaines, voire des mois, sont de plus en plus énergivores. Et puisque le coût de la puissance de calcul a baissé, tout comme celui des grands ensembles de données, l’apprentissage machine est de plus en plus présent dans les domaines des affaires, du gouvernement, de l’enseignement, ainsi que dans la vie de tous les jours.
L’emplacement des ordinateurs utilisés pour ces sessions de formation a un impact majeur sur le volume d’émissions polluantes découlant de ces activités. Par exemple, une même session effectuée en Estonie, qui s’appuie largement sur le pétrole de schiste pour se chauffer et s’éclairer, produirait 30 fois plus de CO2 contribuant à l’effet de serre que l’équivalent au Québec, où l’hydroélectricité est la principale source d’énergie.
Déplacer ces sessions est d’ailleurs facile, affirment les chercheurs, puisque les données utilisées pour les analyses sont stockées dans des serveurs connectés au web, et sont donc accessibles de n’importe où dans le monde.
L’utilisation d’algorithmes plus efficaces, et donc moins énergivores, pourrait aussi améliorer le bilan carbone de l’IA, disent les scientifiques.
« Au fil du temps, il est probable que les systèmes d’apprentissage machine consommerons encore plus d’énergie en mode production qu’en mode formation. Mieux nous comprenons quelles options s’offrent à nous, mieux nous pouvons limiter les impacts environnementaux », a déclaré M. Henderson.