Pendant qu’on s’inquiète des risques lointains et hypothétiques de l’IA, est-ce qu’on oublie de regarder les risques d’ores et déjà présents? De la reconnaissance faciale jusqu’aux emplois menacés en passant par des décisions prises par un algorithme opaque, ce ne sont pas les sujets dans l’air du temps qui manquent et qui en appellent à des changements urgents.
C’est la réflexion que l’on retrouve dans l’éditorial du 27 juin de la revue scientifique Nature. Le texte rappelle tout d’abord la lettre ouverte et les prises de position des derniers mois par des chefs de file de l’intelligence artificielle, où ceux-ci s’inquiètent des « risques pour l’humanité » que présente l’évolution rapide de ces technologies.
C’est très bien, poursuit l’éditorial, que ces personnes reprennent à leur compte un discours qui, jusque-là, était marginal. Mais « à la manière du mouvement des mains d’un magicien, cela détourne l’attention du vrai problème: les dommages sociaux que les systèmes et les outils de l’IA causent déjà, ou risquent de causer dans le futur ».
Et puisque ces gens abordent ces inquiétudes dans le but avoué de lancer un débat sur une règlementation de la recherche en IA, alors les gouvernements « ne devraient pas être distraits » par ce discours.
Des prises de position où on évoque jusqu’à un risque d’extinction de l’humanité, ont deux conséquences, l’une paradoxale et l’autre malheureuse:
- Paradoxalement, le spectre d’une « machine-toute puissante » qui est évoqué par les experts nourrit la compétition entre les pays, parce que chacun veut du coup devenir celui qui contrôlera cette machine. Et c’est « à l’avantage des firmes de technologie: ça encourage l’investissement et affaiblit les appels à réguler l’industrie ».
- La conséquence malheureuse, c’est que ça attire les projecteurs sur les discours tenus par les chefs de file de l’industrie, au détriment des alertes lancées par des communautés qui ont pourtant, elles aussi, des doléances légitimes.
Le texte donne en exemple la reconnaissance faciale, qui fait d’ores et déjà l’objet d’abus « par des États autocrates pour opprimer leurs populations » Et des « systèmes d’IA biaisés qui pourraient utiliser des algorithmes opaques pour retirer à des gens de l’aide sociale, des soins médicaux ou un droit d’asile —des applications de la technologie susceptibles d’affecter davantage les communautés marginalisées ».
La plus grosse préoccupation est sans doute le risque posé par la désinformation:
La technologie rend plus facile de produire davantage, et de façon plus convaincante, de faux textes, de fausses photos et de fausses vidéos qui peuvent, par exemple, influencer des élections, ou miner la capacité de gens à faire confiance à quelque information que ce soit, avec le potentiel de déstabiliser les sociétés. Si ces compagnies sont sérieuses quant à leur volonté d’éviter ou de réduire ces risques, elles doivent mettre l’éthique, la sécurité et la responsabilité au coeur de leur travail. À l’heure actuelle, elles semblent réticentes à le faire.
Les éditoriaux de la revue Nature ne sont pas signés, comme c’est la tradition dans la presse anglophone — Nature est une revue britannique. Mais elles reflètent l’opinion de « l’équipe éditoriale » et sont traditionnellement vues comme une prise de position de la revue, depuis sa naissance en 1869.
Le texte s’achève par un appel à une plus grande transparence de la part des compagnies —elles pourraient par exemple soumettre l’ensemble de leurs données à un organisme réglementaire, de la même façon que les compagnies pharmaceutiques doivent soumettre leurs données si elles veulent pouvoir vendre leurs médicaments. Pour cela, il faudrait que les gouvernements mettent en place un tel organisme de régulation.
Le projet de règlement de l’Union européenne sur l’intelligence artificielle (AI Act), proposé en 2021 et adopté le 14 juin dernier par le parlement européen, pourrait être un modèle, s’il devient une loi formellement adoptée par les 27 pays du continent. La loi contiendrait des restrictions aux usages les plus risqués, dont l’usage par la police de logiciels de reconnaissance faciale, et obligerait les fabricants de systèmes d’IA, comme les agents conversationnels du type ChatGPT, à dévoiler à un organisme indépendant les données derrière leur robot.
« Les discours alarmistes sur les risques existentiels ne sont pas constructifs », conclut l’éditorial. « Les discussions sérieuses sur les risques réels, et de réelles actions pour les contenir, le sont. »