Une équipe de recherche interdisciplinaire a conçu un plan pour créer des algorithmes qui intègrent plus efficacement des normes éthiques dans les programmes de prise de décision liés à l’intelligence artificielle (IA). Le projet portait spécifiquement sur les technologies qui permettent aux humains d’interagir avec l’IA, notamment avec des assistants virtuels, ou dans un contexte d’aide aux patients en milieu hospitalier.
« Les technologies comme les robots médicaux sont supposés aider à assurer la sécurité et le confort des patients dans les hôpitaux, les aînés et d’autres personnes qui ont besoin d’une surveillance médicale ou d’une aide physique », mentionne Veljko Dubljvic, l’un des auteurs de l’étude et professeur associé à l’Université d’État de Caroline du Nord.
« En termes clairs, cela veut dire que ces technologies seront employées dans des situations où l’IA doit passer des jugements éthiques. »
« Par exemple, disons qu’un robot d’aide médicale se trouve dans une situation où deux personnes ont besoin de soins. L’un des patients est inconscient, mais a besoin de soins en urgence; l’autre patient a des besoins moins urgents, mais réclame que le robot le soigne en premier. Comment le robot va-t-il décider qui aider en premier? Ce robot devrait-il, en fait, soigner une personne inconsciente qui ne peut consentir à recevoir un traitement? »
« De précédentes tentatives pour intégrer la prise de décision éthique dans le cadre de programmes d’IA ont été d’une ampleur limitée et s’articulaient autour du raisonnement utilitariste, qui néglige la complexité de la prise de décision morale des humains », a ajouté M. Dubljevic. « Nos travaux visent à corriger cette lacune et, si j’utilise les robots médicaux comme exemple, s’appliquent aussi à plusieurs technologies qui combinent les humains et l’IA. »
Le processus décisionnel utilitariste se concentre sur les résultats et les conséquences. Mais lorsque les humains passent des jugements moraux, ils tiennent aussi compte de deux autres facteurs.
Le premier est l’intention d’un geste et la personnalité d’une personne qui effectue cette action. En d’autres mots, qui pose un geste, à un moment précis, et qu’est-ce que cette personne tente d’accomplir? Est-ce quelqu’un de bienveillant ou de malveillant?
Le deuxième facteur est l’action en elle-même. Par exemple, certaines personnes tendent à voir des gestes précis, comme le fait de mentir, comme étant fondamentalement mauvais.
Et tous ces facteurs interagissent entre eux. Par exemple, rappellent les chercheurs, nous pouvons nous entendre sur le fait que mentir est mal, mais si une infirmière ment à un patient qui présente des demandes inacceptables afin de prioriser le traitement d’un deuxième patient qui en a davantage besoin, la plupart des gens verraient cela comme étant moralement acceptable.
Pour tenir compte de la complexité de la prise de décisions morales, les chercheurs ont développé une formule mathématique et une série d’arbres décisionnels qui peuvent être incorporés dans des programmes d’IA. Ces outils s’appuient sur quelque chose appelé le modèle Agent, Acte et Conséquence (ADC, en anglais), qui a été conçu par M. Dubljevic et des collègues pour refléter la façon dont les personnes prennent des décisions en fonction d’aspects moraux dans la vraie vie.
« Notre objectif, ici, était de transposer le modèle ADC dans un format qui permet de l’incorporer dans la programmation de l’IA », a-t-il indiqué. « Nous ne disons pas seulement que ce cadre éthique pourrait bien fonctionner pour l’intelligence artificielle, nous le présentons sous forme de langage qui est accessible dans le contexte de l’informatique. »
Toujours au dire du chercheur, « avec le développement de l’IA et des technologies robotiques, la société a besoin de tels efforts collaboratifs entre les éthiciens et les ingénieurs. Notre futur en dépend. »