Les efforts pour corriger des fausses nouvelles sur Internet sont-ils fructueux? Une étude américaine confirme ce dont on se doutait déjà: ces efforts frappent un mur chez les amateurs de théories du complot.
Mais de l’autre côté de l’Atlantique, une compilation française révèle que la majorité des fausses nouvelles est le fruit d’une petite poignée de sites, ce qui permettrait peut-être de mieux cibler ces efforts.
L’un des problèmes des initiatives de luttes à la désinformation — dont fait partie le Détecteur de rumeurs — est qu’elles manquent de données pour évaluer l’efficacité de leur travail. C’est l’une des complaintes qui était ressortie en juillet du congrès international des médias vérificateurs de faits. Or, s’il faut en croire une étude récente, le portrait ne serait guère réjouissant. À partir de l’analyse de 54 millions d’usagers américains de Facebook, les auteurs ont dirigé leur attention vers deux « groupes », l’un intéressé par les sciences, l’autre par les complots — et non seulement ces deux groupes ne se parlent-ils pas, mais la grande majorité des adeptes du groupe « complot » n’ont jamais commenté ou partagé un message corrigeant une fausse information provenant du groupe « science ».
Il y a toutefois deux bémols à cette conclusion : d’une part, au-delà des usagers définis par ces chercheurs comme appartenant au groupe « science » ou au groupe « complot » il y en a un grand nombre (environ le quart) qui ont commenté sans appartenir à un de ces deux groupes, et ce sont ces « autres » que visent en priorité les initiatives de vérification des faits. D’autre part, les chercheurs ne sont capables de mesurer que les usagers qui commentent ou « aiment » : tous ceux qui lisent sans commenter échappent à leur analyse.
Les Décodeurs du journal Le Monde arrivent ce mois-ci avec une autre pièce du casse-tête: en analysant la circulation de 101 fausses informations, ils ont trouvé 685 sources qui ont diffusé ces informations sous la forme d’articles ou de vidéos, générant l’impressionnant total de 4,3 millions de partages sur Facebook, pour environ 16 millions d’« interactions ». Toutefois, sur ces 685 sources, on n’en trouve que 16 qui ont fait circuler plus de six fausses informations pendant la période étudiée. Dans le lot, on retrouve une poignée de sites d’extrême-droite connus, et Russia Today, média financé par le gouvernement russe.
Détail intéressant pour les amateurs de science: chez les Français, la politique est loin d’être le seul thème qui ressort du lot de ces « fausses nouvelles ». En fait, l’histoire la plus partagée est en science, si l’on peut dire: un Chinois qui aurait été « infesté par les vers » après avoir mangé des sushis. À elle seule, cette histoire a généré plus de 3,5 millions d’interactions sur Facebook et suscité au moins 40 articles différents.
C’est suivi (de très loin) par des « vaccins combinés qui seraient moins sûrs ». Se glisse aussi en 6e place un soi-disant fruit anti-cancer. À noter que de fausses infos sur les migrants occupent les 3e et 5e places. « Dans quelle proportion ceux qui consultent (ces infos) sont-ils réellement influencés ? » demandent Les Décodeurs. « Notre travail ne permet pas de répondre à ces questions en profondeur ». Mais d’autres s’y emploient…