Il suffit d’une minute à une intelligence artificielle créée par les chercheurs de Google pour produire des prévisions météorologiques sur 10 jours, pour n’importe quelle région du monde.
Le « robot » est donc (beaucoup) plus rapide et moins coûteux que les modèles informatiques actuellement utilisés.
Mais ses prédictions sont-elles plus exactes? C’est ce que les chercheurs affirment dans leur étude parue mardi dans la revue Science : appelé GraphCast, ce « modèle » développé par la compagnie britannique DeepMind de Google, aurait été 10 % plus juste que le traditionnel « modèle européen », sur plus de 90 % des « variables météorologiques » évaluées —ce qui couvre autant des prévisions au jour le jour que des prévisions « d’événements extrêmes » comme les ouragans ou les vagues intenses de chaleur ou de froid.
On appelle « modèle européen » l’un des deux modèles couramment utilisés en météorologie (l’autre étant le « modèle américain »). Tous deux font leurs prévisions sur la base d’équations mathématiques complexes, elles-mêmes appuyées sur les principes de base de la physique (températures, courants atmosphériques et océaniques, etc.). La quantité de calculs en question nécessite une grande puissance informatique.
En comparaison, les nouveaux modèles apparus ces deux dernières années dans la foulée des progrès rapides de l’IA, comme le ClimaX de Microsoft ou le FourCastNet de Nvidia, fonctionnent sur la base des tendances qu’ils découvrent à travers les données météorologiques mises à leur disposition. Le travail nécessite moins de puissance d’ordinateur, et prend moins de temps: une minute ou moins, plutôt qu’une heure ou plus. On assure que l’IA peut aussi apprendre au fur et à mesure que de nouvelles données s’accumulent.
Les 18 signataires de l’étude, tous attachés à Google DeepMind à Londres ou à Google Research en Californie, affirment même que leur rejeton est meilleur que leur principal rival parmi les jeunes IA du même type, soit Pangu-weather de la compagnie chinoise Huawei.
Mais ils lui reconnaissent aussi son talon d’Achille: le manque de précision. Par exemple, avec les événements météorologiques extrêmes: parce que ceux-ci sont rares, l’IA manque de données sur lesquelles s’appuyer pour prédire avec précision leur force ou leur trajectoire. Une question particulièrement épineuse face aux ouragans…
C’est en vertu de cette même logique — le manque de données — que les modèles d’IA comme GraphCast ou Pangu-weather ont des limites : ils ne peuvent pas faire de prédictions aussi précises sur un aussi grand nombre de paramètres (précipitations, vitesse et direction du vent, température, pression, humidité, etc.) que les modèles européen ou américain. Cela rend l’IA, résume le météorologue du Washington Post, « moins utile pour prédire des phénomènes sur une petite échelle, comme une tempête ou une inondation ».
Enfin, comme des observateurs le faisaient remarquer l’été dernier, le climat changeant peut élever le niveau de difficulté, si l’IA est trop entraînée à prédire à partir des données des 40 années précédentes.
En attendant, les météorologues eux-mêmes vont à présent se retrouver devant une courbe d’apprentissage : un de leurs rôles a toujours été d’interpréter l’information qu’ils reçoivent (et de la vulgariser correctement), sur la base de ce qu’ils ont appris au fil des décennies sur les forces et les faiblesses des modèles traditionnels. Or, pour l’instant, en-dehors des développeurs des nouveaux modèles, peu de gens savent comment ils fonctionnent, ou plus précisément, « pourquoi un modèle d’IA fait la prévision qu’il fait ». « Ces modèles sont encore dans leur enfance », explique dans le Post le chercheur en visualisation de données Jacob Radford, de l’Université d’État du Colorado, « et la confiance reste encore à développer, autant dans la communauté de la recherche que dans celle des gens qui font les prévisions ».