Les bots, ces comptes automatisés sur les médias sociaux, n’embêtent pas juste les usagers qui sont confrontés à leurs efforts de désinformation. Ils embêtent les chercheurs en sciences sociales qui tentent d’analyser les conversations virtuelles et ont du mal à distinguer les humains des machines.
Un bot est, en gros, un compte programmé pour une tâche spécifique: par exemple, relayer les messages d’un autre compte, ou réagir à un mot-clef. Dans bien des cas, il n’est pas seul: il fait partie d’une petite armée de bots qui peuvent ainsi donner l’illusion qu’une politique, une personne ou une fausse information, sont plus populaires qu’elles n’en ont l’air. Beaucoup de gens ont pris conscience de leur poids lors de l’élection américaine de 2016.
Or, ces bots causent problème à des chercheurs qui ont tenté d’étudier, sur Twitter, Reddit ou Instagram, comment une catastrophe naturelle a affecté la santé mentale des gens concernés. Ou bien comment les jeunes ont adopté les cigarettes électroniques. Dans les deux cas, les chercheurs se sont retrouvés devant des armées automatiques suffisamment bien programmées pour qu’il soit difficile de les distinguer des voix « authentiques ».
« Les bots sont conçus pour se comporter comme des gens », rappelle dans Nature Jon-Patrick Allem, de l’Université de Californie du Sud, qui avait dirigé en 2017 l’étude sur la façon dont la cigarette électronique et les produits du tabac étaient présentés sur les médias sociaux.
D’après son analyse, un bot sur Twitter était deux fois plus susceptible qu’une vraie personne d’affirmer que la cigarette électronique aidait les gens à cesser de fumer —le genre de détail qui, au passage, révèle qui paie pour ces bots.
Ces comptes sont également plus susceptibles de promouvoir les effets bénéfiques (prouvés ou non) du cannabis sur la santé, selon une étude de 2019. De sorte qu’un sociologue qui ignorerait ce fait risquerait de se retrouver avec un échantillon « d’opinions » un brin biaisé…