Les utilisateurs « vérifiés » de la plateforme X (anciennement Twitter), sont ceux qui produisent les trois quarts des affirmations fausses ou trompeuses les plus virales autour de la guerre entre Israël et le Hamas.
Il fut un temps où le « crochet bleu » était, sur certaines plateformes, synonyme d’un utilisateur dont on avait validé l’identité: ça ne prouvait pas que ce qu’il disait était vrai, mais qu’il était bien qui il prétendait être. Or, peu après avoir fait l’acquisition de Twitter, Elon Musk en a fait un objet payant: depuis mars 2023, quiconque paie 8$ US par mois, obtient un crochet bleu, et un grand nombre des anciens utilisateurs vérifiés ont perdu le leur.
L’organisme américain Newsguard qui depuis 2018, se donne pour mission de traquer les diffuseurs d’informations peu crédibles, a donc voulu vérifier si on pouvait mesurer l’impact de ce changement. Sachant que le fait d’avoir un crochet bleu fait « remonter » les messages de ces usagers dans l’algorithme, ils ont plus de chances d’apparaître en priorité dans le fil d’un plus grand nombre d’usagers, même si ceux-ci ne font pas partie de leurs abonnés.
« Cette décision s’est révélée une aubaine pour les acteurs malveillants partageant de la mésinformation sur la guerre entre Israël et le Hamas », écrit Newsguard dans son court rapport publié le 18 octobre. Pendant la première semaine du conflit (7 au 14 octobre), parmi 10 des récits faux ou trompeurs les plus populaires, 186 des 250 messages ayant suscité le plus « d’engagement » (aimer, partager, répondre), avaient été partagés par des comptes dotés d’un crochet bleu.
Parmi ces fausses informations : l’Ukraine aurait vendu des armes au Hamas (déboulonnée ici, ici et ici), une vidéo montrant soi-disant des enfants israéliens ou palestiniens dans des cages (déboulonnée ici et ici), CNN qui aurait mis en scène une attaque (déboulonnée ici et ici), etc.
Au total, les messages relayant ces fausses informations ont suscité 1 349 979 « engagements » sur la plateforme X et ont été vus plus de 100 millions de fois, écrit Newsguard —et ce, en une semaine seulement. L’un des comptes « vérifiés » compte 361 000 abonnés. Il avait été banni de Twitter en 2022 mais avait été rétabli par le nouveau propriétaire.
À la défense de X, il existe un outil appelé « Notes de la communauté » qui permet à certains utilisateurs « d’accrocher » à un message un commentaire démontrant, sources à l’appui, que l’information est fausse ou trompeuse. Mais seulement le tiers des messages analysés avaient un tel commentaire au moment où a été faite l’analyse.
Dans la dernière année, dans la foulée de la mise à pied des équipes chargées de la modération des contenus sur Twitter, plusieurs analyses avaient démontré une montée en flèche de la désinformation, y compris en science, et des propos haineux. Le média de vérification des faits Science Feedback avait par exemple identifié, en février dernier, 490 « super-propagateurs » de désinformation (dont 329 en anglais), dont « l’engagement » avait augmenté en moyenne de 42% par message depuis l’arrivée du nouveau propriétaire.