Une nouvelle étude révèle comment les communautés intégrées au réseau social Facebook étaient déjà interreliées à des groupes s’opposant aux meilleures pratiques liées à la science, et ce, même avant l’apparition des vaccins contre la COVID-19.
Ces travaux, réalisés à l’Université George Washington, ont visé à déterminer qui échangeait avec qui, et qui écoutait qui, dans le contexte de l’éclatement d’une crise mondiale. En tentant de tracer les échanges mondiaux sur Facebook à partir de décembre 2019, l’étude démontre comment de grands nombres d’utilisateurs réguliers de Facebook se sont retrouvés mêlés à des communautés numériques qui s’opposaient aux meilleures pratiques basées sur la science, en début de pandémie.
Cela est venu saper la confiance du public envers les experts dans de nombreux domaines, en allant des masques jusqu’aux vaccins.
De plus, les chercheurs responsables de l’étude ont constaté que les comportements numériques étaient presque identiques en ce qui concerne la variole simienne.
« C’est un vrai problème qui va bien au-delà de la pandémie de COVID-19 », affirme ainsi Neil Johnson, un professeur de physique et le principal auteur de l’étude. « Si nous ne nous y attaquons pas, nous risquons de perdre la bataille pour les « coeurs et les esprits » lorsqu’il est question d’autres crises, comme la variole simienne, la désinformation à propos de l’avortement, les changements climatiques – et même en ce qui a trait à la confiance à propos des élections à venir. »
L’étude indique également que pendant que les autorités en santé publique tentaient encore de comprendre le nouveau coronavirus et que des réseaux sociaux comme Facebook commençaient à faire la promotion d’informations officielles liées à la santé publique, plusieurs utilisateurs de cette plateforme se tournaient déjà vers d’autres endroits pour trouver des informations sur la meilleure façon de vaincre la maladie.
Communautés « interreliées » avec les fausses informations
De façon plus spécifique, dès janvier 2020, des communautés Facebook articulées autour de la parentalité se sont retrouvées interreliées avec de plus petites communautés dont les membres se passionnaient pour la transmission d’informations à propos de la santé, mais qui résistaient ou s’opposaient aux recommandations des experts.
Vers la mi-février, ces communautés de parents ont commencé à partager leurs propres suggestions en lien avec la COVID-19 auprès d’autres groupes similaires. De plus, les chercheurs ont constaté que bien que des communautés officielles en matière de santé publique et de science étaient actives sur le web, au même moment, celles-ci discutaient largement entre elles.
Les conversations en ligne que M. Johnson et son équipe ont pu retracer révèlent que les communautés de parents, sur Facebook, étaient clairement liées à des groupes faisant la promotion de toutes sortes de choses, allant de la méfiance envers les vaccins à de la « médecine alternative », en passant par des théories conspirationnistes à propos de la 5G, du fluor, des chemtrails et des aliments génétiquement modifiés.
L’équipe de recherche a aussi mis au jour la façon dont le partage des informations vérifiées et des meilleures pratiques en matière de science et de santé publique a eu lieu loin de ces communautés, ce qui a fait en sorte que celles-ci se sont tournées vers des groupes partageant des points de vue plus extrêmes. Les messages ciblés de Facebook en matière de santé ont également raté leur cible et n’ont pas atteint les grandes communautés présentes sur le réseau, révèle l’étude.
« Ce fut une grande occasion manquée en matière de communication efficace des informations liées à la santé publique, au début de la crise », affirme M. Johnson.
« Des liens et des réseaux comme ceux que nous avons créés pourraient aider les experts en santé publique et les réseaux sociaux à adapter leurs normes en matière de conseils scientifiques liés à la COVID-19 en les liant, par exemple, à des sujets populaires au sein des communautés de parents, puis en diffusant largement les recommandations en ligne, à grande échelle. »
Le chercheur recommande également que les réseaux sociaux et les experts évitent de concentrer leurs efforts vers les groupes les plus extrêmes, et ciblent plutôt les grands groupes, où les messages en matière de santé publique auront plus d’impact.
L’étude met par ailleurs de l’avant un modèle mathématique qui permet d’effectuer une analyse quantitative de scénarios envisageables en matière de crise. Par exemple, les chercheurs affirment que le simple fait de faire disparaître les groupes les plus extrêmes ne réglera pas le problème de la désinformation. Cela créerait plutôt un vide au sein duquel des informations erronées s’engouffreraient, disent-ils.