À une époque où bien peu d’industries demeurent épargnées par la vague d’intérêt pour l’intelligence artificielle, ou n’ont certainement pas échapé à l’engouement, le chercheur Michael Duffy, de l’Université Monash, s’interroge: assistera-t-on à la montée de « l’IA comme partie défenderesse » devant les tribunaux?
Dans le cadre d’une nouvelle étude, M. Duffy affirme que « les systèmes d’intelligence artificielle devraient devenir bien plus intelligents, avec le temps, ce qui signifie que nous pourrions commencer à leur faire davantage confiance, en plus de leur confier plus de responsabilités ».
Le chercheur se pose toutefois la question suivante: « Que se passe-t-il si quelque chose ne tourne pas rond? Qui est ultimement responsable des décisions prises par une machine? »
Selon les conclusions de ses travaux, M. Duffy soutient que la situation est « inquiétante », et que « nos cadres légaux et législatifs actuels pourraient ne pas suffire ».
Une catastrophe évitée « pour l’instant »
De l’avis de l’auteur, « la complexité technologique de la société signifie que les humains dépendent de machines de plus en plus sophistiquées afin de veiller à la préservation des intérêts de l’humanité ».
Et lorsqu’au contraire, ces technologies sont employées à l’encontre de nos intérêts, « l’approche traditionnelle, en la matière, a généralement consisté à identifier les humains ou les entreprises responsables de ces machines, et ainsi évaluer si ces entités ont violé leurs obligations ou leurs responsabilités légales ».
De telles personnes punies peuvent ainsi être « des propriétaires, des opérateurs, des fabricants, des programmeurs ou des concepteurs », entre autres possibilités, juge-t-il.
Mais lorsqu’il est question de systèmes jugés comme étant « autonomes », et donc capables d’agir de leur plein gré, qui est en faute, lors d’une erreur? Qui est à blâmer?
Comme l’indique M. Duffy, « si une machine apprend quelque chose en traitant des données externes provenant du web, ou prend des décisions de façon indépendante, est-ce que le concepteur, l’opérateur ou le programmeur est encore responsable de la conduite de sa machine? ».
Le chercheur envisage aussi des situations où « les agissements de la machine n’étaient pas aisément prévisibles ».
« Dans certaines de ces circonstances, écrit M. Duffy, une poursuite pourrait échouer contre des personnes légales. Si cela se produit, alors les victimes pourraient ne pas avoir de recours civils, et les personnes « derrière » l’IA pourraient aussi éviter de devoir rendre des comptes ».
Pour l’instant, évoque le scientifique, « l’humanité a évité la catastrophe », même si de nombreux chercheurs tirent la sonnette d’alarme à propos d’un « emballement de l’IA », à l’instar de l’intelligence artificielle Skynet dans la série Terminator, où une entité informatique autonome infiltre les systèmes militaires et déclenche une Troisième Guerre mondiale afin de se débarrasser de l’humanité, qui est perçue comme une menace.
À l’autre extrémité du spectre, plusieurs études font non seulement état de la détérioration des résultats offerts par les systèmes d’IA générative, comme ChatGPT, mais aussi de l’engloutissement croissant de quantités phénoménales de ressources naturelles, y compris de l’eau potable, afin d’alimenter les gigantesques centres de traitement de données qui alimentent ces IA. Pire, écrivait récemment CNN, les entreprises derrière ces systèmes d’IA n’ont pas encore trouvé de façon de rentabiliser ces investissements se chiffrant en dizaines de milliards de dollars.
Punir qui, ou quoi?
Autre écueil potentiel en matière d’IA et de système légal, écrit M. Duffy: dans le cas où une machine pourrait bel et bien être tenue responsable de ses fautes devant un tribunal, si l’ordinateur ne possède pas d’existence légale et ne peut être « propriétaire » d’un bien, comment lui imposer une peine au civil? Et comment la « punir » au criminel, puisqu’elle ne peut être menacée d’emprisonnement, se demande le chercheur.
Enferme-t-on une IA en prison? S’agit-il alors d’une geôle numérique, ou va-t-on carrément empiler des disques durs dans une cellule? Si l’IA est reconnue comme ayant une entité propre, la « débrancher » revient-il à commettre un meurtre? Michael Duffy ne s’engage pas nécessairement dans des débats éthiques et philosophiques, mais juge que les différentes sociétés humaines « doivent urgemment adapter les lois existantes » afin de tenir compte d’une réalité qui est déjà bien implantée dans diverses sphères de l’économie.
« Les forces du marché alimentent déjà la progression rapide de l’intelligence artificielle. Nous ignorons toutefois jusqu’où cela finira par aller », écrit-il dans ses travaux.
« Il est impossible que les lois dont nous disposons maintenant soient suffisamment flexibles pour gérer ces nouveaux problèmes. Mais il est aussi possible que nos lois ne seront pas assez efficaces, ce qui pourrait ajouter un sentiment d’injustice aux futurs problèmes et catastrophes » liées à l’IA, ajoute M. Duffy.
Ce dernier juge d’ailleurs essentiel « de s’assurer que les entreprises ayant le plus profité du développement de l’IA soient aussi rendues responsables des coûts et des conséquences, si quelque chose se passe mal ».