Comment résoudre l’apparente contradiction entre la défense de la liberté d’expression et le désir légitime d’écarter des informations qui sont non seulement fausses, mais peuvent être carrément dommageables pour la santé ou la sécurité?
Il y a trois approches qui ont fait leurs preuves, défend un psychologue australien qui écrivait sur ce sujet une dizaine d’années avant que l’expression « fake news » ne soit devenue à la mode.
Si on écarte ces approches, même les groupes qui publient en toute bonne foi de fausses informations risquent de nuire à la liberté d’expression et la démocratie, en entretenant une confusion entre « censure » et « vérification des faits », écrit Stephan Lewandowsky dans un texte d’opinion publié le 6 février par la revue américaine Science.
Un « contre-discours »
La vérification des faits n’est pas de la censure: « c’est un contre-discours », insiste-t-il en répondant au grand patron de Facebook qui, le mois dernier, avait justifié l’interruption aux États-Unis du financement du « fact-checking » sur Facebook, en le présentant comme de la « censure ».
La première approche qui a fait ses preuves, c’est justement la vérification des faits, en particulier celle qui consiste, sur les réseaux sociaux, à coller une étiquette sur des messages faux ou trompeurs. De nombreuses recherches ont démontré son efficacité.
La deuxième approche, qui est reliée à la première, c’est celle de l’évaluation de la crédibilité des sites. Plusieurs efforts ont été entrepris en ce sens, comme ceux de la firme américaine Newsguard: celle-ci, depuis 2018, accorde une « note » basée sur différents critères objectifs, allant de la transparence à la distinction entre faits et opinions (note: l’Agence Science-Presse a obtenu un total de 95%).
Or, à ceux qui accusent les vérifications de faits ou les évaluations de sites d’être biaisées ou de faire partie d’un « cartel de la censure », il est possible de rétorquer, études à l’appui, que différents types d’efforts, bien qu’utilisant des méthodologies différentes, arrivent aux mêmes résultats. Et qu’en plus, aux États-Unis, ces efforts arrivent à un consensus « bipartisan »: cela veut dire que lorsqu’on demande à un millier d’Américains de toutes allégeances politiques d’évaluer la crédibilité des sites, « ils sont d’accord avec les pros », résume Lewandowsky.
Son texte est aussi une réaction à un décret signé par Donald Trump le 20 janvier: celui-ci prétend vouloir « restaurer la liberté de parole et mettre fin à la censure fédérale » sur les forums en ligne. C’est un objectif louable, mais mal placé, écrit le psychologue. S’il se contente de traiter « vérification des faits » et « censure » comme des synonymes, il risque d’avoir « des effets contraires sur la liberté d’expression et la démocratie ».
Sus aux algorithmes
La troisième et dernière approche pour éviter ces conséquences négatives concerne les algorithmes. Une grande part de l’information consommée par de plus en plus de gens dépend de choix opaques faits par ces codes informatiques.
On devine que ces choix dépendent avant tout de « l’engagement » de chaque usager — aimer, partager, commenter, etc. — et très peu, voire pas du tout, de la crédibilité des sources d’information. Sauf qu’en raison de cette opacité, rien ne permet de vérifier si un propriétaire ne manipulera pas l’algorithme pour satisfaire ses préférences politiques — comme Elon Musk est soupçonné de l’avoir fait sur X l’été dernier.
« Réclamer plus de liberté d’expression en ligne » est donc indissociable, conclut le psychologue, d’une obligation de transparence imposée aux algorithmes. « La transparence algorithmique et la vérification des faits sont des ingrédients essentiels d’un Internet qui fonctionne pour la démocratie plutôt que contre elle. »