Au moment où les robots se multiplient dans notre société, il est important de s’intéresser aux implications éthiques et morales de ces machines qui accompliront des tâches qui peuvent avoir un impact important sur les vies des humains. Si les robots et les machines sont de plus en plus nombreux à agir dans des situations où ils pourraient gravement affecter la vie de diverses personnes, par exemple en conduisant des voitures ou en présentant des médicaments à des personnes âgées, leurs concepteurs devraient s’attarder à plusieurs questions importantes, dont la responsabilité et la possibilité de pardonner à des êtres artificiels.
Avec cela en tête, Michael Nagenborg, chercheur de l’Université de Twente, aux Pays-Bas, a récemment effectué une étude portant sur ce qui pourrait se produire si un robot ou une machine commettait une « terrible » erreur qui aurait des conséquences néfastes pour ses utilisateurs. Ses travaux, publié dans Technology, Anthropology, and Dimensions of Responsability, s’intéressent à la question à savoir si, d’un point de vue philosophique, les humains pourraient pardonner à un robot si quelque chose tourne mal.
« La discussion académique sur l’éthique porte souvent sur la création de normes morales, avec peu d’attention accordée à ce qui se passe lorsque des gens ne respectent pas les normes en question », affirme M. Nagenborg. « Être capable de pardonner à quelqu’un, cependant, semble être un aspect crucial de l’existence humaine et est étroitement lié à la façon dont nous nous tenons responsables de nos actions. Je me demandais quel rôle pourrait jouer le pardon, si nous considérons les robots comme des entités sociales. »
Dans son étude, M. Nagenborg explore une série de questions éthiques complexes liées au blâme et à la responsabilité en robotique, comme par exemple « comment les humains peuvent-ils gérer le fait qu’un robot commette une erreur cruciale », ou encore « un robot peut-il être tenu entièrement responsable de ses actions »? Plutôt que de se demander si un robot devrait être puni pour ses erreurs, cependant, le chercheur se concentre sur le fait que les humains puissent, ou non, pardonner aux robots, même dans des cas où les erreurs seraient irréversibles et très lourdes de conséquences.
« Prenons un exemple dramatique: une voiture sans pilote tue quelqu’un que vous aimez », a expliqué M. Nagenborg. « Seriez-vous prêt à pardonner au véhicule? Je pourrais imaginer que je pourrais pardonner à un conducteur humain, mais il semble plus difficile de pardonner à une machine. Je voulais explorer ce que ce défi révèle à propos de notre relation avec les robots, dans le contexte du débat académique sur leur statut moral. »
Si l’étude du chercheur est uniquement basée sur des spéculations et des idées philosophiques, M. Nagenborg espère que d’autres scientifiques s’intéresseront à ce nouvel aspect de l’éthique et de la robotique, et jettera un nouvel éclairage sur la complexité des interactions sociales chez l’humain, et comment cette complexité pourrait un jour se refléter dans les interactions entre humains et machines.