Qu’est-ce qui a changé pour que, 31 ans après le premier rapport du GIEC, les auteurs du 6e rapport en viennent finalement à utiliser les mots « sans équivoque »? Comme dans « la responsabilité humaine » dans les changements climatiques est « sans équivoque »?
En 1990, dans le tout premier rapport du GIEC, le langage était pourtant déjà assez fort, à ceci près qu’on reconnaissait qu’il restait une marge d’incertitude. « La détection sans équivoque de l’effet rehaussé des émissions de gaz à effet de serre n’est probablement pas pour la prochaine décennie ». En termes clairs: la culpabilité humaine n’est pas encore prouvée, mais on s’en approche. Et en 1995, dans le deuxième rapport du GIEC, on s’en approchait un peu plus: « l’ensemble des preuves suggère une influence humaine perceptible sur le climat planétaire ».
Pour le climatologue américain Ben Santer, qui a participé à chacun des six rapports depuis 1990, ce qui a entraîné progressivement cette évolution du langage, ce sont deux facteurs principaux:
- Des observations des changements climatiques étalées sur une plus longue durée et de meilleure qualité. Depuis le sol ou l’orbite, à partir de la surface des océans ou de la haute ou de la basse atmosphère, diverses technologies fournissent des quantités gigantesques de données avec un luxe de détails qui aurait été jadis impensable: la quantité d’eau dans les nuages, les éclosions de plancton dans les océans, etc.
- Le développement de meilleurs modèles informatiques des différents systèmes climatiques. Il n’en existait qu’une demi-douzaine en 1990, et ils étaient limités par les capacités des ordinateurs de l’époque. Ils ont, depuis, augmenté en puissance, en qualité et en précision, avec l’ajout de paramètres allant de la quantité de carbone absorbée et rejetée par les océans jusqu’à la chimie de l’atmosphère en passant par l’impact de la fonte d’une calotte glaciaire sur les courants océaniques. Chaque nouvel élément peut être mis en relation avec les autres pour essayer de jauger leurs rôles respectifs.
Et pourtant, malgré leurs limites à l’époque, les modèles climatiques ne frappaient pas si loin de la cible, comme l’avait démontré en 2019 une analyse comparant la réalité de 2017 avec les prédictions de 17 modèles de ce que serait la température planétaire moyenne sur la terre ferme. Certains de ces modèles dataient d’aussi loin que les années 1970, et leurs résultats étaient, pour la plupart, « très fiables pour prédire le réchauffement climatique plusieurs années après leur publication ».
Leur faiblesse, c’était leur incapacité à prédire d’autres paramètres que la température, ainsi que, dans certains cas, une marge d’incertitude trop grande. C’est cette marge d’incertitude qu’ont permis de réduire les progrès technologiques depuis.
Santer identifie deux autres facteurs, secondaires, mais liés aux deux premiers.
- Depuis 1990, les scientifiques ont développé des protocoles plus rigoureux pour évaluer et tester les limites de ces modèles, et ont couplé le tout à des plateformes qui permettent un meilleur partage des données à l’échelle internationale.
- Et —étonnamment, diront certains— des réponses aux climatosceptiques ont aidé à renforcer le niveau de certitude. Par exemple, écrit-il, en 1995, le choix de la phrase « influence humaine perceptible sur le climat » avait provoqué des critiques, certains alléguant que les données satellites ne montraient « aucun réchauffement » dans la couche basse de l’atmosphère. L’affirmation allait s’avérer fausse, mais encore fallait-il le démontrer avec des analyses plus poussées des données existantes et un renforcement de la capacité d’observation des satellites. Un travail qui « a fait avancer la science, conduisant ultimement à de meilleures observations par les satellites —observations qui montrent un réchauffement robuste de la basse atmosphère ».