Plus d’un tiers des chercheurs en intelligence artificielle (IA) ne sont pas d’une nature optimiste : ils ont dit croire que l’IA pourrait causer une catastrophe mondiale de même ampleur qu’une guerre nucléaire.
Cette réponse provient d’un sondage mené en mai et juin de cette année auprès de 327 de ces chercheurs, choisis parmi ceux qui ont co-signé ces dernières années une ou des recherches sur le traitement automatique du langage (natural language processing), un domaine qui a été le théâtre d’avancées notables.
L’expression « de même ampleur qu’une guerre nucléaire » peut être vue comme une métaphore, mais peut aussi être prise au premier degré: ces chercheurs entrevoient des applications militaires à l’IA, et du coup, la possibilité qu’avec ces récentes avancées, l’IA joue un rôle plus important dans la prise de décision. « Il existe des scénarios plausibles qui pourraient nous conduire jusque-là », commente dans le New Scientist le chercheur en sécurité Paul Scharre. « Mais ça nécessiterait que des gens fassent des choses vraiment dangereuses avec les usages militaires de l’IA. »
Dans l’enquête, réalisée par une équipe du Centre de l’Université de New York pour les données scientifiques, et dont les résultats ont été pré-publiés le 26 août, le nombre de chercheurs inquiets était plus élevé encore parmi les femmes (46 %) et les membres des minorités visibles (53 %).
Sans aller jusqu’à une guerre nucléaire, certains des répondants ont dit qu’ils auraient été d’accord avec la prémisse selon laquelle l’IA pose de sérieux risques, si le scénario évoqué avait été moins extrême. On évoque par exemple dans l’enquête les risques posés par des armes guidées par l’intelligence artificielle ou ceux posés par la surveillance de masse.
Parmi les pessimistes, quelques optimistes
Ces chercheurs n’ont évidemment pas sorti ces inquiétudes de leurs seules recherches. Les risques de dérives de l’IA sont évoqués depuis plusieurs années, par exemple en matière de discrimination. Mais les risques qui mettent en jeu l’avenir même de l’humanité, ont fait l’objet de réflexions plus poussées, par exemple dans le rapport de 2018 d’un groupe de penseurs aux États-Unis, ou dans le livre d’un chercheur de l’Université Oxford en 2014. Des milliers de personnes ont signé une lettre ouverte de l’informaticien britannique Stuart Russell, en 2015, qui en appelait à « des recherches élargies visant à s’assurer que les systèmes de plus en plus avancés d’IA soient robustes et bénéfiques ».
À l’inverse, ceux qui ne cèdent pas au pessimisme évoquent l’exemple de la voiture autonome, qui est encore loin de pouvoir prendre des décisions éclairées en toutes circonstances, en dépit des sommes énormes qui y ont été investies.
Si, dans les années 2000 et 2010, ces réflexions portaient sur les capacités théoriques d’une « super-intelligence », elles sont devenues plus ancrées dans le réel avec les concepts récents d’apprentissage automatique (machine learning) et de traitement automatique du langage, qui ont ouvert de nouvelles perspectives sur ce que nous pouvons faire avec l’IA et ce que nous ignorons encore de son potentiel. Des juristes s’interrogent aussi: le comité sur l’intelligence artificielle du Conseil de l’Europe a notamment statué sur l’importance d’une règlementation qui laisse la prise de décision aux humains « et non à des modèles mathématiques ». Mais reste à écrire de telles lois…