Préoccupés, et enthousiastes: c’est l’attitude schizophrénique de 1600 scientifiques face aux perspectives de l’intelligence artificielle dans leurs domaines respectifs.
Ainsi, lorsqu’on leur demande à quel point ils croient que l’IA va devenir utile pour leur discipline dans la prochaine décennie, plus de la moitié ont des réponses allant des « très importante » à « essentielle ». Mais des risques concrets de fraudes ou de désinformation pointent à l’horizon pour l’autre moitié, dans le cadre d’une enquête menée par la revue Nature.
Au-delà de la capacité de l’IA à traiter d’immenses quantités de données, dont on avait beaucoup parlé ces 10 dernières années, l’émergence toute récente des modèles dits « grand modèle linguistique » (large language model) — dont ChatGPT — a ouvert la porte à des choses comme l’écriture, par l’IA, de résumés de travaux de recherches — en particulier chez les scientifiques dont la première langue n’est pas l’anglais. Ou à l’écriture de pages entières de codes informatiques. Mais cette émergence a aussi ouvert la porte à la création de fausses photos d’expériences, ou de faux résultats dont il pourrait être difficile de démontrer qu’ils sont faux.
Du côté positif, 58 % des scientifiques interrogés par Nature ont jugé que l’IA allait permettre d’accélérer le traitement de données et 55 %, que l’IA permettrait de sauver du temps et de l’argent.
Mais 55% ont dit que les outils d’IA pourraient rendre la fraude plus facile et 58 %, qu’ils pourraient renforcer des biais ou de la discrimination, là où ils sont déjà inhérents aux données disponibles — par exemple, des diagnostics médicaux historiquement marqués par des biais sexistes ou racistes. 68 % ont mentionné leur crainte de voir proliférer la désinformation, de même que le plagiat.
Le questionnaire a été envoyé à des chercheurs qui avaient publié au moins une recherche dans les 4 derniers mois de 2022. Parmi ceux qui ont répondu, la moitié sont directement impliqués dans le développement d’outils d’IA, le tiers en ont utilisé dans leurs recherches et le quart n’en ont pas utilisé.
L’écart le plus significatif est entre ces deux derniers groupes: 75 % de ceux qui utilisent déjà l’IA dans leurs recherches (excluant les experts en IA) jugent que l’outil va devenir « essentiel » ou « très important », contre 42 % de ceux qui n’utilisent pas l’IA.
Les éditeurs des revues et leurs réviseurs sont-ils capables de réviser adéquatement des recherches tournant autour de ce domaine encore très jeune qu’est l’IA? Là aussi, un écart dans les réponses, mais cette fois, avec ceux qui ont contribué au développement d’outils d’IA: la moitié voit positivement le processus de révision, et un tiers ne se prononce pas.
Chez ceux qui n’ont pas développé de tels outils, un tiers juge que le processus de révision est inadéquat et la moitié ne se prononce pas.
Le problème le plus souvent mentionné est qu’un tel réviseur doit non seulement être familier avec la discipline pour laquelle un outil d’IA a été développé, que ce soit la météorologie ou l’astrophysique, mais qu’il doit aussi être familier avec l’IA elle-même — une double expertise qui n’est pas facile à trouver.