L’an dernier, une voiture autonome a frappé et tué une piétonne à Tempe, en Arizona. La famille de la victime poursuit maintenant l’État et la Ville pour négligence. Mais, dans un article publié le 5 avril dans Trends in Cognitive Sciences, des chercheurs en informatique cognitive cherchent à déterminer à quel point les gens commenceront à estimer que les véhicules autonomes et d’autres robots sont responsables de leurs propres actions – et si les blâmer pour leurs erreurs est justifié.
« Nous sommes à l’aube d’une révolution technologique et sociale dans le cadre de laquelle des machines autonomes remplaceront des humains dans les lieux de travail, sur les routes, et dans nos maisons », affirme Yochana Bigman, de l’Université de Caroline du Nord à Chapel Hill. « Lorsque ces robots feront inévitablement quelque chose qui nuira aux humains, comment les gens réagiront-ils? Nous devons déterminer cela maintenant, alors que l’on travaille encore à établir les règles et les lois. »
L’article s’intéresse à la façon dont l’esprit moral de l’humain risque de conceptualiser la responsabilité des robots. Au dire des auteurs, la présence, ou la présence perçu, de certaines capacités clé pourrait faire en sorte que les gens soient plus disposés à tenir une machine moralement responsable de ses gestes.
Parmi ces capacités, on compte l’autonomie, soit la capacité d’agir sans instructions humaines. L’apparence d’un robot est aussi importante, puisque plus un robot ressemble à un humain, plus les gens ont tendance à lui attribuer un esprit humain. Et entre autres facteurs pouvant pousser la population à estimer que des robots ont un « esprit indépendant », on note aussi la possibilité de se rendre compte de la situation dans laquelle une entité se trouve, tout comme la capacité d’agir librement et avec intention.
De tels enjeux ont des implications importantes pour les gens dans le cadre de leurs interactions avec des robots. Il s’agit également de considérations essentielles pour les individus et les entreprises qui créent et exploitent des machines autonomes – les chercheurs soutiennent par ailleurs qu’il pourrait exister des cas où des robots blâmés pour des torts causés à des humains pourraient protéger les gens et les entreprises ultimement responsables de leur programmation et des directives qui leur sont imposées.
Alors que la technologie continue de se développer, d’autres questions intrigantes devront être résolues, y compris le fait de déterminer si les robots possèdent des droits. Déjà, notent les chercheurs, l’American Society for the Prevention of Cruelty to Robots et un rapport publié en 2017 par l’Union européenne ont affirmé qu’il était important d’étendre certaines protections morales aux machines. Selon cet argument, de tels débats tournent habituellement autour de l’impact des droits des machines sur les gens, puisque l’expansion des protections morales pour inclure les robots pourrait, dans certains cas, aider la population.
Si la moralité des robots peut sonner comme des discussions réservées au monde de la science-fiction, les auteurs affirment que cela est exactement la raison pour laquelle il est essentiel de poser ces questions maintenant.
« Nous suggérons que l’époque actuelle – tandis que les machines et nos intuitions à leur propos sont encore floues – est le meilleur moment pour explorer systématiquement le sujet de la moralité robotique », écrivent les auteurs.
« En comprenant comment l’esprit humain arrive à comprendre la moralité, et la façon dont nous percevons l’esprit des machines, nous pouvons aider la société à réfléchir de façon plus claire sur l’arrivée prochaine des robots, et ainsi aider les roboticiens à comprendre la façon dont leurs créations seront perçues. »