Les robots tueurs sophistiqués sont plus à risque d’être blâmés pour la mort de civils que des machines militaires, selon ce qu’a révélé une nouvelle étude. Ces travaux de l’Université d’Essex indiquent ainsi que les engins robotiques sophistiqués seront plus souvent jugés responsables des décès que d’autres machines lors d’incidents similaires.
L’étude en question, dirigée par le Dr Rael Dawtry, du département de psychologie de l’Université, souligne l’impact de l’autonomie et de la capacité de prise de décision, en plus de démontrer que les gens perçoivent les robots comme étant davantage coupables s’ils sont décrits de façon plus avancée.
Les chercheurs espèrent que les travaux, publiés dans The Journal of Experimental Social Psychology, aidera à influencer les décideurs politiques, à mesure que la technologie progresse.
Selon le Dr Dawtry, « à mesure que les robots deviennent plus sophistiqués, ils accomplissent une plus vaste gamme de tâches, avec moins d’intervention humaine ».
« Certaines de ces tâches, comme la conduite autonome, ou l’utilisation des robots dans un contexte militaire, pose un risque pour la sécurité des gens, ce qui soulève des questions à propos de la façon dont sera imputée la responsabilité, ou qui sera rendu responsable, lorsque des personnes sont blessées par des robots autonomes. »
Toujours au dire du chercheur, « il s’agit d’un enjeu important, en matière d’ingénierie, auquel devront s’attaquer les décideurs politiques et ceux qui font appliquer les lois, par exemple en ce qui concerne l’emploi d’armes autonomes et de respect des droits de la personne ».
« Notre étude contribue à ces débats en examinant comment les gens ordinaires expliquent le comportement nuisible des robots et en démontrant que les mêmes procédés qui sous-tendent la façon dont le blâme est assigné chez les humains sont aussi utilisés lorsque vient le temps d’attribuer la culpabilité à des robots. »
Des scénarios sans appel
Dans le cadre des travaux, le Dr Dawtry a présenté différents scénarios à plus de 400 personnes. Dans le cadre de l’un d’entre eux, les participants devaient déterminer si un robot humanoïde armé était responsable de la mort d’une adolescente. Lors d’un raid contre un camp terroriste, ses mitrailleuses ont été « activées » et les tirs ont tué un civil.
En examinant cet incident, les participants ont davantage blâmé le robot lorsqu’il a été décrit dans des termes plus sophistiqués, même si le résultat était le même.
D’autres études ont démontré que le simple fait de décrire divers appareils comme des « robots autonomes » pousse les gens à les tenir plus responsables, comparativement au fait de les qualifier de simples « machines ».
Toujours au dire du Dr Dawtry, « ces conclusions démontrent que la façon dont l’autonomie des robots est perçue – et, ultimement, la façon dont on juge leur possible culpabilité – est influencée, de façon très subtile, par la méthode employée pour les décrire ».
« Par exemple, nous avons constaté qu’en définissant simplement des machines relativement simples, comme celles utilisées en usine, comme des « robots autonomes », cela a poussé les gens à les considérer comme étant davantage dotées d’objectifs propres et pouvant donc être tenus responsables, comparativement au fait de les qualifier de « machines », tout simplement. »
Le chercheur entrevoit un futur où les robots, objectivement de plus en plus sophistiqués, seront donc tenus davantage « responsables » de leurs actes.