Une nouvelle étude explore les thèmes inhérents à des discussions, sur Twitter, à propos de fausses vidéos liées à l’invasion de l’Ukraine par la Russie, soulignant au passage le risque que de vraies vidéos soient perçues comme des fausses, et que de fausses images alimentent des théories de la conspiration.
Les travaux ont été publiés dans le magazine spécialisé PLOS ONE par John Twomey, de l’University College de Cork, en Irlande, et ses collègues.
Créées à l’aide de l’intelligence artificielle, les vidéos dites deepfake mettent généralement de l’avant une personne qui dit des choses et pose des gestes qui sont entièrement inventés. Cette technologie a largement progressé, suscitant des inquiétudes à propos de ses impacts négatifs potentiels. Ainsi, des deepfakes à propos de l’invasion de l’Ukraine par la Russie représentent la première instance où ce type de contenu est employé pour tenter d’influencer une guerre.
Pour mieux comprendre les possibles effets délétères de ces contenus, le Pr Twomey et ses collègues ont analysé les discussions à propos de ce genre d’images en lien avec l’invasion. Les chercheurs ont utilisé une approche dite de l’analyse quantitative pour identifier et comprendre les tendances dans ces discussions, qui représentent un total de 1231 tweets publiés en 2022, écrivent les auteurs de l’étude.
Ceux-ci ont constaté que plusieurs tweets exprimaient des réactions négatives concernant les nouvelles portant sur les deepfakes. Par exemple, certains internautes exprimaient leur inquiétude, leur état de choc, ou encore leur confusion à propos d’une fausse vidéo montrant le président ukrainien Volodymyr Zelensky qui se rendait aux Russes.
Cependant, certains tweets ne s’attardaient pas aux possibles impacts négatifs, ou exprimaient encore des réactions positives adressées à des rivaux politiques, particulièrement lorsqu’il était question de deepfakes créés dans un contexte de satire ou de divertissement.
Toujours au dire des chercheurs, certains tweets soulignaient l’importance de se préparer à une utilisation accrue de ces images et vidéos inventées, discutaient de la façon de les détecter, ou soulignaient le rôle des médias et des gouvernements dans la lutte contre ces contenus. Et dans des cas extrêmes, des messages indiquaient que les deepfakes avaient à ce point sapé la confiance des internautes qu’ils ne faisaient plus confiance à aucune image vidéo liée à l’invasion russe.
Dans l’ensemble des tweets examinés, on trouvait aussi des liens avec les croyances de certains utilisateurs par rapport aux théories de la conspiration, comme des deepfakes de leaders politiques utilisés comme couverture alors que les véritables dirigeants seraient cachés, voire que l’ensemble de l’invasion serait fausse – et serait plutôt de la propagande antirusse.
Au dire des chercheurs, l’analyse suggère que les efforts visant à éduquer le public à propos des deepfakes pourrait saper, par inadvertance, la confiance envers les véritables vidéos. Les auteurs notent d’ailleurs que leurs conclusions, ainsi que de futurs travaux, pourraient aider à alimenter des efforts pour contrer la nuisance provoquée par les faux contenus vidéo.
Les chercheurs ajoutent également que « la plupart des précédents travaux sur les deepfakes ont porté sur les possibles futurs effets négatifs de la technologie. Cependant, nous nous sommes concentrés sur la façon dont ces contenus ont déjà un impact sur les médias sociaux, comme nous l’avons vu dans le cadre de l’invasion de l’Ukraine. Nos travaux démontrent comment les deepfakes sapent la confiance envers les vrais médias et sont utilisés pour alimenter les théories de la conspiration ».