Oubliez Terminator, La Matrice, ou toute autre oeuvre de science-fiction se déroulant dans un futur dystopique où les robots ont asservi l’humanité: la plupart des gens s’inquiètent d’abord des risques courants liés à l’intelligence artificielle, avant de penser à des scénarios hypothétiques et lointains.
Voilà du moins ce que révèle une nouvelle étude de l’Université de Zurich. Il existerait donc des distinctions claires entre des scénarios abstraits et des problèmes tangibles et spécifiques; ces derniers seraient ainsi pris très au sérieux.
Comme le rappellent les auteurs des travaux, « il existe un large consensus voulant que l’IA est associée à des risques », mais il existe ainsi des différences dans la façon dont ces risques sont conçus et priorisés.
D’un côté, il y aurait donc cette perception, largement répandue, selon laquelle l’intelligence artificielle menace à terme la survie de l’humanité.
De l’autre, la façon dont l’IA amplifie dès maintenant les préjudices sociaux, ou encore contribue à la désinformation. Et une partie de la population irait même jusqu’à penser que le fait de mettre de l’avant les « risques existentiels », aussi dramatiques soient-ils, détournerait l’attention des problèmes actuels, plus urgents, que l’IA cause déjà.
Pour examiner ces points de vue, une équipe de politologues de l’Université de Zurich a mené trois vastes enquêtes en ligne, qui ont rassemblé plus de 10 000 participants aux États-Unis et au Royaume-Uni. Les conclusions sont publiées dans Proceedings of the National Academy of Sciences.
Certains participants ont lu une série de grands titres dépeignant l’IA comme représentant un risque catastrophique. D’autres ont plutôt lu des titres à propos de menaces courantes, comme la discrimination ou la désinformation, alors que l’on a fourni, à un troisième groupe, des manchettes concernant des avantages potentiels de l’IA.
Inquiétudes actuelles
« Nos conclusions démontrent que les participants sont bien plus inquiets par rapport aux risques représentés en ce moment par l’IA, comparativement aux dangers futurs », mentionne le professeur Fabrizio Gilardi.
Même si des articles à propos de menaces existentielles ont renforcé les craintes à propos de scénarios de ce genre, les répondants demeuraient beaucoup plus préoccupés par des enjeux actuels, notamment les biais systémiques de l’IA lorsque celle-ci prend des décisions, ou encore les emplois perdus en raison de l’utilisation de logiciels comme ChatGPT.
L’étude révèle aussi que les participants sont capables de faire la distinction entre des dangers théoriques et des problèmes tangibles, et de prendre ces deux catégories d’enjeux au sérieux.
Au dire des chercheurs, ces nouveaux travaux viennent combler un vide en matière de connaissances scientifiques dans ce domaine.
« Notre étude démontre que les discussions à propos des risques à long terme ne se produisent pas automatique au détriment du fait d’être au courant des risques actuels », réitère Emma Hoes, la coautrice des travaux.
De son côté, le Pr Gilardi mentionne que « les débats publics sur cette question ne devraient pas s’articuler selon une logique de l’«un ou l’autre». Il faut être au fait des enjeux liés aux problèmes courants, mais aussi aux menaces plus lointaines ».