L’épidémie de fausses nouvelles autour du coronavirus continue de frapper très fort, et les chiffres rappellent plus que jamais à quel point le problème tourne autour des réseaux sociaux. La solution viendra-t-elle de plateformes qui prendront acte de leurs responsabilités, ou d’usagers qui comprendront mieux ce que « désinformation » veut dire?
Dès la fin de janvier, alors que la majorité des gens, à travers le monde, voyaient encore le coronavirus comme un problème lointain limité à la Chine, des journalistes vérificateurs de faits constataient qu’un volet de ce problème était d’ores et déjà dans leur cour: une épidémie de désinformation, allant des faux remèdes jusqu’aux théories du complot, émergeait sur les réseaux sociaux. À l’initiative de l’International Fact-Checking Network (IFCN), 88 médias — dont l’Agence Science-Presse — commençaient alors à construire une base de données de contenus contre-vérifiant ces nouvelles douteuses: aujourd’hui, cette base de données rassemble plus de 6000 contenus dans 40 langues.
Plusieurs de ces vérifications se recoupent: par exemple, les mêmes fausses rumeurs sur Bill Gates ou la 5G sont répétées telles quelles d’un pays à l’autre et d’une langue à l’autre. Un outil créé par Google ne recense pour sa part « que » 2700 vérifications de faits autour de la COVID-19. Mais quel que soit le chiffre, tous ces médias ont en commun de ne pas en voir le bout: même Snopes, qui emploie pourtant une quinzaine de personnes —la plupart des autres médias n’en emploient qu’une ou deux — admettait être débordé.
Le problème avec cette « infodémie » —terme proposé par l’Organisation mondiale de la santé— est son échelle, expliquait la semaine dernière à la revue Nature le physicien italien Manlio De Domenico: « collectivement, nous produisons beaucoup plus d’informations que nous ne pouvons en analyser et en consommer ». Il est derrière un « observatoire de l’infodémie » créé cet hiver par son centre de recherche sur l’intelligence artificielle, dans le but d’essayer de mieux comprendre l’origine de ces fausses rumeurs sur le coronavirus et leur « mode de transmission » via Twitter. Le travail des journalistes vérificateurs de faits lui sert d’échelle pour évaluer ce qui peut être classé comme faux.
De Domenico fait aussi partie d’un petit groupe de chercheurs qui, dans quelques pays, travaillent sur ce que ces journalistes vérificateurs de faits réclament depuis des années: des indicateurs de l’impact qu’ont ces vérifications de faits. Autrement dit, qu’est-ce qui fonctionne et qu’est-ce qui ne fonctionne pas quand on veut lutter efficacement contre la désinformation sur les réseaux sociaux.
Les compagnies derrière ces plateformes ne partent pas de zéro. Facebook, par exemple, a mis sur pied à la fin de 2016 un « partenariat » avec des « tierces parties » que sont certains de ces médias vérificateurs de faits: les informations douteuses qui sont classées comme fausses par ces médias sont accompagnées d’un avertissement pour quiconque voudrait malgré tout les partager. Google, pour sa part, publie des avertissements pour certaines informations fausses ou « trompeuses » (misleading). Mais ces efforts ont leurs limites: une équipe de l’Institut Internet de l’Université Oxford dirigée par le chercheur en communications Scott Brennen a suivi 225 des informations cataloguées comme fausses dans la base de données de l’IFCN, pour en conclure, dans un récent rapport, qu’à la fin du mois de mars, 25% d’entre elles n’étaient accompagnées d’aucun avertissement sur Facebook ou sur YouTube.
Qui plus est, certains des désinformateurs les plus populaires ont compris comment ils peuvent éviter d’être ciblés. Et enfin, le fait qu’un contenu soit catalogué comme faux n’assure pas qu’il ne sera plus partagé. Lorsque, la semaine dernière, Twitter a collé sur deux tweets de Donald Trump l’étiquette « faux », le geste a fait du bruit, tant il s’agissait d’une première historique —mais les tweets sont toujours là.
Le bon côté des choses, se réjouit De Domenico dans Nature, c’est la prise de conscience qu’a entraînée la pandémie: les grandes plateformes se sont mises à intervenir davantage qu’elles n’avaient jamais osé le faire. « Les gens ont commencé à consommer et à partager davantage de nouvelles fiables provenant de sources crédibles. »
Pourfendeur des pseudosciences de longue date, le chercheur et auteur canadien Timothy Caulfield émettait une opinion similaire en avril: « j’ai étudié la dissémination et l’impact de la désinformation en santé depuis des décennies et je n’ai jamais vu le sujet être pris autant au sérieux ».
Craindre les répercussions politiques
Cela tient peut-être au fait que, aussi longtemps que le débat sur la désinformation était resté limité à la politique, ces compagnies craignaient qu’une intervention de leur part ne soit dénoncée comme partisane. Alors qu’avec le coronavirus, elles peuvent diriger les usagers des réseaux sociaux vers des sources crédibles en santé ou en épidémiologie.
C’est ainsi qu’à la mi-mars, Facebook, Google, LinkedIn, Reddit, Twitter et YouTube, ont publié un communiqué commun sur leur intention de combattre « la fraude et la désinformation » autour du virus. Facebook et Google ont interdit les publicités sur les médicaments miracles. YouTube a ajouté des bannières conduisant vers des sources crédibles. Twitter, Facebook et YouTube sont allés jusqu’à effacer des messages et une vidéo du président brésilien Jair Bolsonaro affirmant que l’hydroxychloroquine était un traitement efficace contre la COVID-19. Enfin, le geste de Twitter la semaine dernière et la réaction du président américain ont remis à l’ordre du jour le débat sur le niveau de responsabilité que devraient avoir ces plateformes quant à ce qu’elles publient: devraient-elles être traitées, légalement, sur le même pied qu’un média?
Reste toutefois qu’en bout de ligne, ces efforts dépendront de la façon dont ils seront compris par le public. Et ce public, les observations des dernières semaines ont rappelé qu’il ne faut pas le réduire à une équation binaire —défenseur acharné d’une théorie ou adversaire tout aussi acharné.
Il peut s’agir de gens légitimement inquiets, qui s’estiment simplement plus « critiques » que leur voisin face à l’information, résume le chercheur britannique Scott Brennen: « les gens dans les communautés conspirationnistes pensent faire ce qu’ils sont censé faire, c’est-à-dire être des consommateurs critiques de médias. Ils pensent qu’ils font leurs propres recherches. » Une attitude d’ores et déjà utilisée à leur avantage par les mouvements anti-vaccin, signalait en mai une étude parue dans Nature: les premières cibles des mouvements anti-vaccins dans l’actuelle pandémie en effet, ce ne sont pas les autres irréductibles anti-vaccins, mais des groupes de parents inquiets pour leurs enfants. Les algorithmes des réseaux sociaux permettent ainsi à un contenu très populaire, même s’il est totalement faux, d’atteindre des clientèles « connexes », pour autant que ce contenu joue sur des inquiétudes communes ou des idées préconçues similaires.
« La montée des peurs et de la désinformation autour de la COVID-19 », commente l’auteur principal de cette étude, « a permis aux promoteurs de contenus malicieux et de haine de parler à des auditoires mainstream autour d’un sujet d’intérêt commun, et de potentiellement les pousser » vers des contenus plus radicaux.
Coronavirus: une cellule de crise pour les journalistes québécois