Un nouveau modèle mathématique, conçu pour assigner une valeur numérique à la question de « responsabilité » lors d’un événement aux conséquences négatives, pourrait permettre de concevoir des intelligences artificielles respectant un code moral.
Les travaux de recherche, effectués par le professeur Joseph Halpern et l’étudiant au doctorat Meir Friedenberg, s’appuient sur les recherches déjà effectuées par M. Halpern dans le domaine de la causalité. Ensemble, les deux homme sont mis au point un modèle mathématique permettant de calculer la responsabilité sur une échelle de zéro à un.
« L’une des choses que nous voulions accomplir était de nous donner un cadre nous permettant d’appliquer ces notions philosophiques et juridiques à des systèmes autonomes », a indiqué M. Friedenberg, principal auteur de l’étude. « Nous croyons que cela sera important si nous allons bel et bien intégrer des systèmes autonomes dans notre société. »
Lors de précédent travaux, M. Halpern et ses collègues ont défini la responsabilité individuelle comme l’importance, selon eux, de leurs actions sur la conclusion d’un événement. Par exemple, si vous votiez contre un candidat qui, selon vous, perdrait par un seul vote, la responsabilité aurait une valeur de « un », alors que si vous estimiez que le candidat allait perdre par des milliers de voix, la responsabilité serait bien moindre.
Au cours de leur récente recherche, MM. Friedenberg et Halpern ont d’abord établi la définition de la responsabilité d’un groupe – en gros, une mesure du degré selon lequel le groupe aurait pu se coordonner pour obtenir un résultat différent lors d’un événement. Ils ont ensuite créé un modèle pour « distribuer » cette responsabilité commune à ses membres individuels.
Pour atteindre cet objectif, les deux chercheurs ont mesuré la capacité des membres du groupe à travailler en commun pour modifier le résultat, en tenant compte du prix d’une telle collaboration. Le coût est effectivement un aspect primordial lorsque vient le temps de calculer la responsabilité, estiment les deux hommes.
Lorsqu’il est question de voitures autonomes, les concepteurs ou les législateurs pourraient établir leurs propres définitions du coût des gestes à poser lorsque viendra le temps de développer des algorithmes, a indiqué M. Halpern. Par exemple, si un gouvernement décide qu’aucun degré de risque n’est acceptable, une voiture pourrait être conçue pour ne jamais dépasser un autre véhicule, puisque cela augmente les risques d’accident.
Un commentaire
Pingback: Le plagiat a encore de l’avance sur l’intelligence artificielle - pieuvre.ca