Profitant du Jour de la Terre vendredi dernier, Twitter a annoncé qu’elle interdirait les publicités qui font la « promotion » du déni des changements climatiques. Une décision qui s’inscrit dans la foulée de celle de Google en octobre dernier, qui avait interdit les publicités « en contradiction avec le consensus scientifique bien établi sur l’existence et les causes des changements climatiques ».
L’approche semble s’inspirer des politiques établies par les principales plateformes au début de la pandémie, pour tenter de contrer les discours allant à l’encontre du consensus scientifique sur le fait qu’il s’agissait bel et bien d’une pandémie et que certains pseudo-traitements pouvaient bel et bien s’avérer dangereux. Mais en ciblant uniquement les publicités cette fois, il se peut que Twitter vise les groupes les mieux organisés ou les mieux financés —souvent associés aux compagnies pétrolières— plutôt que l’ensemble des diffuseurs de fausses nouvelles. Le communiqué émis par Twitter le 22 avril ne précise pas les critères par lesquels la compagnie ciblera ces publicités, sinon qu’elle s’appuiera sur les rapports qui font autorité en la matière, comme ceux du GIEC.
Il est certain qu’à l’instar des fausses informations sur la pandémie, les médias sociaux ont été des terreaux fertiles pour de la fausse information sur le climat. Par exemple, une étude parue en septembre 2020 avait attribué aux « robots » ou « bots » sur Twitter le quart des messages sur la crise climatique, toutes catégories confondues. Une proportion qui grimpait à 38% quand il était question de « fake science »: les auteurs avaient choisi comme période pour leur étude les semaines avant et après l’annonce par le président Trump du retrait des États-Unis de l’Accord de Paris.
Mais il reste à démontrer si les publicités, ou les stratégies coordonnées comme celles des bots, sont réellement le facteur dominant pour influencer les conversations sur les réseaux.
On se rappelle par exemple que, pendant la pandémie, un groupe de pression américano-britannique, Center for Countering Digital Hate, avait identifié un groupe de 12 « super-propagateurs » de fausses nouvelles, tous des humains et non des robots, responsables de 65% des messages antivaccins publiés sur Facebook et Twitter en février et mars 2021. Un exercice similaire avait été mené en France au premier semestre 2020 par l’organisme Newsguard. Et du côté du climat, le groupe militant Avaaz a évalué plus récemment que, sur Facebook, sur une période de six mois — avril à novembre 2021 — les cinq plus gros désinformateurs sur les questions climatiques avaient amassé à eux seuls 61 millions de « vues » sur leurs messages. La grande majorité de ces messages (88%) n’avaient jamais été étiquetés comme « faux » par Facebook. Sur cette plateforme, l’algorithme peut certes faire « reculer » dans le fil d’information un message qui a été établi comme faux par les médias vérificateurs de faits, mais ces médias ne peuvent vérifier qu’une petite portion de la masse de fausses informations qui circulent.