La recherche scientifique générée par l’IA menace à la fois les connaissances de la société, en général, mais aussi la confiance du public envers la science: telle est la conclusion de chercheurs de l’Université de Boras, en Suède, qui ont récemment identifié plus d’une centaine d’articles probablement générés par l’intelligence artificielle au sein du moteur de recherche Google Scholar.
Au dire des auteurs de cette étude, donc, de la fausse science fabriquée par des robots conversationnels et autres systèmes d’IA est disponible et peu se répandre facilement, le tout à faible coût, ce qui avantage les gens aux mauvaises intentions.
La recherche est publiée dans Harvard Kennedy School Misinformation Review.
Pour Jutta Haider et Björn Ekström, deux des auteurs des travaux, cette multiplication des articles scientifiques de mauvaise qualité, produits par des systèmes connus pour « inventer » des informations, représente un danger pour la société et la communauté scientifique.
Manipulation à l’aide de fausses preuves
Selon les spécialistes, l’une des principales craintes, en ce qui concerne la recherche générée par l’IA, est l’augmentation du risque de détournement des preuves – soit le fait que de fausses études puissent servir à effectuer de la manipulation stratégique.
« Ce risque augmente de façon importante lorsque des études générées par l’IA sont diffusées sur les moteurs de recherche. Cela peut avoir des conséquences tangibles, comme les résultats erronés peuvent se disséminer à travers la société, et possiblement dans d’autres domaines », soutient le Dr Ekström.
De l’avis des auteurs de l’étude, d’ailleurs, ces articles problématiques se sont déjà répandus dans d’autres secteurs de l’infrastructure de recherche en ligne, dans diverses bases de données et archives, mais aussi sur les médias sociaux, etc. Et même si les articles en question sont retirés, il existe un risque qu’ils aient déjà eu le temps de se répandre, et qu’ils continuent à le faire.
Pire encore, ces articles scientifiques générés par l’IA augmentent la pression sur le système de révision par les pairs, soit la méthode permettant de vérifier si des recherches sont légitimes et viables, un système qui est déjà mis à rude épreuve par la quantité d’études publiées dans le milieu.
Un besoin de mieux s’y connaître
Aux yeux des auteurs de cette nouvelle étude, le fait que la recherche générée par l’IA se répande au sein des engins de recherche et des bases de données fait en sorte qu’il est nécessaire d’encore mieux s’y connaître, lorsqu’il est question de recherche scientifique en ligne.
« Si nous ne pouvons pas faire confiance aux travaux de recherche que nous lisons sur le web, alors nous risquons de prendre des décisions qui s’appuient sur des informations incorrectes. Mais autant cette question représente un enjeu en matière de mauvaise conduite scientifique, autant c’est aussi un enjeu en ce qui concerne la littératie médiatique et scientifique », soutient la Dre Haider.
Celle-ci évoque ainsi le fait que Google Scholar n’est pas une base de données académique. Cet engin de recherche est facile à utiliser, mais ne dispose pas de garde-fous permettant d’assurer une certaine qualité des contenus. Il s’agit déjà d’un problème du côté des résultats de recherche réguliers de Google, mais cet enjeu est encore plus important lorsqu’il s’agit de rendre la science accessible, affirme-t-on.
« La capacité de déterminer quels journaux scientifiques publient des études de qualité révisées par les pais est essentielle, et déterminer ce qui constitue de la recherche fiable est d’une grande importance pour la prise de décision et la possibilité de se faire un avis sur divers sujets », a conclut la Dre Haider.