Lorsqu’il est question de « véritables » fausses nouvelles, soit le genre de désinformation publiée par la Russie lors des élections présidentielles américaines de 2016, « devenir viral » n’est pas qu’une métaphore.
En utilisant des outils servant à modéliser la dissémination de maladies infectieuses, des chercheurs spécialisés en menaces numériques à l’Université de Stanford analysent la façon dont les fausses nouvelles se répandent en ligne de la même façon que s’il s’agissait d’une souche d’Ebola.
« Nous voulons trouver la façon la plus efficace pour couper les chaînes de transmission, corriger l’information si possible, et éduquer les cibles les plus vulnérables », affirme Elisabeth Paté-Cornell, professeur en sciences de la gestion et en génie. Voilà longtemps qu’elle s’est spécialisée en analyse de risques et en cybersécurité, et supervise cette recherche en collaboration avec Travais Trammel, candidat au doctorat à Stanford.
Réplication sur les médias sociaux
Les chercheurs ont ainsi adapté un modèle pour comprendre les maladies qui peuvent infecter les personnes plus d’une fois. Celui-ci se penche sur le nombre de gens qui sont « susceptibles » d’être infectés par la maladie – ou, dans ce cas-ci, à risque de croire une fausse nouvelle. Le modèle cherche également à connaître le nombre de personnes qui y ont été exposées, et combien sont véritablement « infectées » et ont cru la nouvelle, en plus du nombre de gens qui pourraient partager le tout en ligne.
Tout comme un virus, les chercheurs soutiennent qu’avec le temps, être exposé à plusieurs souches de fausses nouvelles peut réduire la résistance d’une personne et les rendre de plus en plus à risque. Plus une personne est exposée à une fausse nouvelle, surtout si elle provient d’une source influente, plus ils risquent d’être convaincus ou infectés.
Facteurs aggravants
La « loi du pouvoir » sur les médias sociaux, une tendance bien documentée sur ces réseaux, stipule que les messages se répliquent le plus rapidement s’ils ciblent un petit nombre de gens influents avec un grand nombre d’abonnés.
Les chercheurs s’intéressent également à l’efficacité relative des trolls contre les robots. Selon M. Trammell, les robots, qui sont des programmes automatiques se faisant passer pour de vraies personnes, tendent à être particulièrement efficaces pour disséminer un grand nombre de messages jouant largement sur les émotions, mais contenant peu de véritables informations.
Imaginez, par exemple, une image d’Hillary Clinton derrière des barreaux, le tout surmonté de l’inscription « Look Her Up! » (Emprisonnez-la!). Ce genre de message se répandra rapidement au sein des « chambres de résonance » remplies de gens qui sont déjà en accord avec l’idée de base. Les robots sont particulièrement efficaces lorsque vient le temps de mettre en colère des gens qui y sont déjà prédisposés, bien qu’ils puissent être plus faciles à détecter et à bloquer que les trolls.
Ces derniers, par comparaison, sont généralement de vraies personnes qui envoie des messages et des memes provocateurs. Les trolls peuvent s’avérer plus efficaces pour persuader les gens qui sont moins convaincus et qui souhaiteraient obtenir davantage d’information.
Groupes à risque
Selon Mme Paté-Cornell et M. Trammell, il existe de nombreuses preuves selon lesquelles les personnes plus âgées, les jeunes et les gens moins éduqués sont particulièrement vulnérables face aux fausses nouvelles.
Mais, si l’on élargit le spectre, on peut aussi y inclure les partisans des extrêmes du monde de la politique, qu’ils soient plus libéraux ou conservateurs, et qui sont plus sujets à croire une fausse nouvelle, entre autres en raison du biais de confirmation, soit la tendance à croire des informations qui renforcent nos convictions, et plus ces convictions sont fortes, plus une personne ressent l’attrait du biais de confirmation.
Peut-on prévenir le phénomène?
Au dire des deux chercheurs, les fausses nouvelles ressemblent à la criminalité plus courante, c’est-à-dire qu’elles ne disparaîtront jamais. Mais en sachant comment elles se propagent en ligne, les chercheurs affirment qu’il est possible de contre-attaquer.
Les plateformes de médias sociaux pourraient ainsi être beaucoup plus efficaces pour détecter des contenus suspects, puis ensuite y attacher des avertissements, soit une forme d’inoculation, ou elles pourraient encore carrément mettre le tout en quarantaine.
Le défi, disent les deux chercheurs, est le fait que la protection a un coût. Financier, oui, mais aussi en termes de réduction de la convivialité et de la liberté d’expression. Mme Paté-Cornell croit ainsi que les dangers des fausses nouvelles devraient être analysés comme le sont les risques des cyberattaques visant à rendre inopérantes des infrastructures critiques. « Combien êtes-vous prêts à dépenser, et quel niveau de risque voulez-vous accepter? »
Un algorithme pour détecter les influences extérieures dans les médias