Dans le cadre d’une nouvelle étude, des extraits vidéos produits par ordinateur – appelés deepfakes en anglais –, extraits supposément tirés de reprises de films qui n’existent pas, ont permis de pousser des participants à se rappeler faussement des films en question. Des chercheurs du University College de Cork et du Science Foundation Ireland Research Centre for Software ont toutefois pu déterminer que de simples descriptions textuelles des faux films ont permis d’atteindre des résultats similaires.
Comme l’écrivent ces scientifiques, les deepfakes vidéo sont des extraits qui ont été modifiés à l’aide de l’intelligence artificielle pour remplacer le visage ou la voix d’une personne par celui ou celle d’une autre.
Les outils pour produire ces montages sont récemment devenus beaucoup plus abordables et plus accessibles, ce qui alimente les conversations à propos des utilisations créatives potentielles, ainsi qu’à propos des possibles risques, comme le fait de répandre de la désinformation et de manipuler les souvenirs des individus.
Pour évaluer les risques et avantages potentiels, Gillian Murphy et ses collègues ont invité 436 personnes à remplir un questionnaire en ligne qui comprenait le fait de visionner de fausses vidéos supposément tirées de films retravaillés mettant en vedette des acteurs différents, comme Will Smith jouant Neo – d’abord joué par Keanu Reeves – dans The Matrix, ainsi que Brad Pitt et Angelina Jolie jouant dans The Shining. Parmi les autres fausses reprises de films, on comptait Indiana Jones et Captain Marvel.
Par comparaison, les participants ont également visionné des extraits de vraies reprises de films, y compris Charlie & The Chocolate Factory, Total Recall, Carrie et Tomb Raider. Par ailleurs, dans certains cas, les participants au projet ont lu des descriptions textuelles des reprises, plutôt que de regarder de faux clips. Les participants n’ont pas été informés du fait que les clips modifiés étaient faux avant une étape ultérieure de l’enquête.
Dans la foulée de précédentes études, les vidéos modifiées et les fausses descriptions ont entraîné l’apparition de faux souvenirs à propos des films inexistants, alors qu’environ 49 % des participants ont jugé que chaque fausseté était véridique.
Plusieurs participants ont aussi mentionné se souvenir que les fausses reprises étaient meilleures que les films originaux. Cependant, les faux souvenirs découlant des descriptions textuelles étaient tous aussi fréquents, ce qui porte à croire que la technologie des deepfakes pourrait ne pas être plus puissante que d’autres outils, lorsque vient le temps de chambouler les souvenirs.
La plupart des participants ont aussi affirmé qu’ils étaient inconfortables avec l’utilisation de la technologie du deepfake pour changer les acteurs jouant dans des films, en évoquant notamment la question de l’intégrité artistique et la dégradation de l’expérience partagée qu’est le fait de voir des films.
Selon les auteurs des travaux, les conclusions de l’étude pourraient aider à guider les prochaines règles venant encadrer l’utilisation des deepfakes dans l’industrie du cinéma.
« Si les deepfakes sont inquiétants pour plusieurs raisons, comme la pornographie non consensuelle et le harcèlement, l’étude suggère qu’ils ne sont pas les seuls outils puissants permettant d’influencer nos souvenirs. Bien que les deepfakes aient mené les gens à créer de faux souvenirs à des taux importants, dans le cadre de cette étude, nous sommes parvenus aux mêmes résultats avec des textes. En gros, cette étude démontre que nous n’avons pas besoins d’avancées technologiques pour modifier les souvenirs, nous pouvons le faire très facilement avec des moyens traditionnels. »