S’il y a une chose qui rassemble la minorité climatosceptique et la majorité du reste de l’humanité, c’est une difficulté à appréhender la quantité de données que représentent les recherches accumulées depuis 40 ans sur le climat, l’atmosphère et les océans. À partir de combien de recherches, de combien de données, peut-on prétendre en avoir accumulé suffisamment pour pouvoir parler de certitude?
Entre 40 ans de données satellites, 40 ans de rapports signal-bruit dans les études de l’atmosphère, et 40 ans (et plus) de modèles sur l’influence du CO2 sur la température, c’est en 2005 qu’on aurait atteint le seuil de « cinq sigma » qui sert d’étalon-or aux physiciens, selon une synthèse publiée le 26 février par 11 chercheurs de trois pays (États-Unis, Canada, Royaume-Uni). « Cinq sigma » est une mesure du niveau de confiance des scientifiques dans la fiabilité de leurs résultats, mais qu’on utilise rarement ailleurs qu’en physique. Atteindre ce seuil signifie que les résultats obtenus, s’ils étaient erronés, n’auraient qu’une chance sur trois millions et demi de se reproduire tels quels. Lors de l’annonce de la découverte du boson de Higgs, en 2012, certains y ont vu une façon d’éviter de dire « il y a 99,9 % de chances que ces résultats soient justes », pour se réfugier derrière une formulation plus alambiquée commençant par « si ces résultats sont justes… »
Les auteurs de la synthèse du 26 février, parue dans Nature Climate Change, prennent comme point de départ symbolique l’année 1979, qui a vu entre autres la publication d’un rapport de l’Académie américaine des sciences (National Academy of Sciences), connu aujourd’hui sous le nom de Rapport Charney. On y trouvait une estimation des effets qu’aurait sur la température planétaire un doublement du taux de CO2 dans l’atmosphère. Or, cette estimation, 40 ans plus tard, s’avère en phase avec les données probantes qui n’existaient pas à l’époque, dont l’observation minutieuse du réchauffement sur la terre ferme et les mesures des changements climatiques à l’échelle des millénaires passés, grâce aux carottes de glace.
Qui plus est, le rapport Charney, écrivent les 11 auteurs, en « s’appuyant sur la théorie et sur les premiers modèles de simulations climatiques » arrivait à la conclusion qu’un signal clair de réchauffement causé par l’humain se dégagerait rapidement des données. Or, un second rapport, signé Klaus Hasselmann et également paru en 1979, ouvrait la porte à une approche rationnelle pour détecter ce signal — autrement dit, pour distinguer le « signal » humain au milieu du « bruit » des variations climatiques naturelles (variations solaires, volcaniques et autres). Une approche qui est pratiquement devenue une sous-discipline en soi, avec des centaines de recherches publiées depuis sur ce qu’on appelle en français « la détection et l’attribution des changements climatiques ».
C’est cette abondance de recherches tendant toutes à confirmer les hypothèses de départ, souvent avec des outils qui n’existaient pas en 1979, et tendant également à raffiner continuellement les données, qui fait conclure à ces auteurs qu’un « seuil de cinq sigma » a été atteint « au plus tard en 2005 ». « Une empreinte anthropogénique » de réchauffement « est identifiable avec un haut degré de confiance ». Pour qui en doute, les données satellites et de températures utilisées sont accessibles publiquement.
Un commentaire
Pingback: Le livre papier, plus polluant que la liseuse? 4 choses à savoir - pieuvre.ca