Il existe un fort appui bipartisan, aux États-Unis, autant chez les libéraux que les conservateurs, à propos de la nécessité, pour les réseaux sociaux, d’ajouter un avertissement aux publications contenant de la désinformation, ou qui pourraient mener à la diffusion de fausses informations, selon les données d’une nouvelle étude de l’Université Northeastern.
La majeure partie des questions posées à ce sujet l’ont été aux alentours de l’élection présidentielle américaine, mais les résultats de cette enquête nationale effectuée chez nos voisins du Sud, qui ont été publiés la semaine dernière, pourraient s’appliquer à la question de la pandémie de COVID-19, et plus particulièrement à l’utilisation des vaccins et d’autres mesures sanitaires, affirme John Whibey, professeur associé en journalisme et innovation média, et coauteur de l’étude.
« Nous nous trouvons dans un nouveau moment, une nouvelle phase de la pandémie – un moment où nous pouvons obtenir un aperçu un peu plus pur de ce que le public pense de ces enjeux », affirme M. Whibey.
Au cours des dernières années, des compagnies comme Twitter et Facebook ont commencé à identifier des millions de publications comme étant de la désinformation, y compris certaines de l’ancien président Donald Trump, qui a été suspendu de façon permanente de ces deux plateformes après l’insurrection du 6 janvier à Washington, un assaut mené par ses partisans.
Les mensonges de M. Trump à propos d’une supposée fraude électorale massive lors de la dernière présidentielle, dont la fausseté a été prouvée à maintes reprises, ont déclenché un vif débat à propos des responsabilités des compagnies technologiques quant à la surveillance des informations que peuvent partager ses utilisateurs, y compris le contrôle des fausses nouvelles, des discours haineux, ainsi que tout autre contenu considéré comme étant problématique.
Au cours de l’été dernier, une équipe de chercheurs de Northeastern a interrogé plus de 1400 Américains. La moitié des participants ont indiqué utiliser Twitter à l’occasion, ou plus fréquemment, alors qu’ils sont 68% à répondre la même chose à propos de Facebook.
Le coup de sonde a été publié conjointement avec l’Ethics Institute de l’université, dans le cadre d’une démarche conjointe pour examiner de possibles nouvelles approches quant à l’identification des contenus sur les réseaux sociaux.
Un accord… malgré les différends
L’enquête a révélé que 92,1% des libéraux, 60,1% des conservateurs et 78,4% des modérés « sont partiellement ou fortement en accord » avec la nécessité, pour les médias sociaux, d’utiliser des étiquettes et des avertissements pour indiquer aux utilisateurs que des messages contiennent de fausses informations. De telles démarches sont déjà partiellement mises en oeuvre sur Twitter, notamment pour des informations erronées, mais aussi des contenus qui pourraient ne pas convenir à certaines personnes, par exemple lorsqu’il s’agit d’images d’actes de violence.
Les participants ont aussi mentionné qu’ils voyaient des « contenus problématiques » – des informations erronées ou mensongères, ainsi des contenus haineux – à une fréquence élevée lorsqu’ils utilisaient les réseaux sociaux. Les chercheurs n’ont toutefois pas tenté de définir ce qu’était un contenu problématique, a indiqué M. Wihbey, en s’appuyant plutôt sur la perception de tels problèmes par les participants lorsque venait le temps de répondre aux questions de l’enquête.
Les chercheurs ont aussi noté que les participants souffraient d’un important « biais de confiance exagérée », ce qui signifie qu’ils faisaient très largement confiance à leurs propres capacités de détecter des informations incorrectes ou erronées en ligne, mais estimaient que les autres étaient incapables des mêmes démarches.
L’accord bipartisan sur l’identification des contenus est quelque peu surprenant, mentionne M. Wihbey, en raison de l’intense polarisation sur la question de la modération des contenus, dans les jours qui ont suivi l’élection présidentielle. Plusieurs conservateurs se sont opposés à l’interdiction imposée à M. Trump, ainsi qu’au bannissement en général, en affirmant qu’il s’agissait de censure.
Mais l’étude a aussi permis de confirmer certaines différences d’opinion, sur des bases partisanes, à propos de la meilleure façon de s’attaquer à la modération de contenu, 63,2% des conservateurs affirmant que l’identification des messages de Donald Trump, plutôt que son bannissement, était suffisante pour gérer ses « messages violant les conditions d’utilisation ». Cela se compare aux plus de 80% de libéraux qui pensaient que des gestes plus concrets étaient nécessaires.
L’étude est publiée au moment où plusieurs gouvernements tentent de contrôler les politiques de modération des géants des réseaux sociaux. La semaine dernière, le gouverneur du Texas, Greg Abbott, un républicain, a signé un projet de loi exigeant des compagnies numériques qu’elles publient leurs politiques en matière de modération et créent un processus d’appel pour les utilisateurs bannis.
En vertu de cette nouvelle loi, les utilisateurs pourraient poursuivre les entreprises pour obtenir la restauration de leur compte. La Floride a adopté une loi similaire, l’an dernier.
Des démocrates ont aussi tenté d’influencer les politiques des entreprises. Au cours de l’été, le président Joe Biden a pressé Facebook de s’attaquer plus efficacement aux publications colportant des fausses nouvelles à propos de la COVID-19, en affirmant que les informations erronées circulant sur la plateforme à propos de la sécurité des vaccins « tuaient des gens ».
« Il y a un besoin urgent de déterminer quels outils et quelles méthodes sont nécessaires pour combattre la désinformation et les fausses nouvelles », mentionne encore M. Wihbey.
« Au même moment, je crois que les gens estiment que la fermeture de comptes et la désactivation de boutons de partage ne sont pas la seule solution. »