Est-ce qu’un robot devrait être capable de mentir? Une nouvelle étude publiée dans Frontiers in Robotics and AI s’intéresse à cette question particulièrement importante, à mesure que l’intelligence artificielle poursuit son développement.
Chez les humains, des normes sociétales viennent généralement définir les moments où il faut faire preuve d’honnêteté, et ceux où mieux vaut cacher la vérité, histoire d’éviter de causer de la peine à son interlocuteur. Mais comment ces normes peuvent-elles s’appliquer aux robots?
Afin d’en avoir le coeur net, des chercheurs de l’Université George Mason ont interrogé environ 500 personnes.
« Je voulais explorer un aspect moins connu de l’éthique liée à la robotique, afin de contribuer à notre compréhension de la méfiance envers les technologies émergentes et leurs développeurs », affirme ainsi Andres Rosero, principal auteur des travaux.
« Avec l’arrivée de l’IA générative, j’ai senti qu’il était nécessaire de commencer à examiner de possibles cas où un design anthropomorphique et des ensembles de comportements pourraient servir à manipuler des utilisateurs. »
Trois types de mensonges
Les scientifiques participant à cette étude ont ainsi choisi trois scénarios reflétant des situations où des robots sont déjà employés – dans les domaines des soins de santé, du nettoyage et de la vente au détail –, ainsi que trois comportements trompeurs différents.
Il s’agit de tromperies externes, où un robot ment à propos du monde qui l’entoure; de tromperies cachées, où la machine dissimule ses capacités, et de tromperies superficielles, où le robot affirme plutôt qu’il possède plus d’habiletés que ce qu’il est réellement capable d’accomplir.
Dans le cadre du premier scénario, un robot travaillant comme aide-soignant pour une femme souffrant de la maladie d’Alzheimer lui ment en affirmant que son défunt mari sera bientôt là.
Dans le deuxième scénario, une femme visite une maison où un robot fait le ménage, sans savoir que celui-ci est aussi en train de filmer.
Et dans le troisième scénario, un robot travaillant dans un magasin dans le cadre d’une étude sur les relations entre humains et machines s’est plaint de douleurs au moment de déplacer des meubles, ce qui a poussé un humain à demander à ce qu’une autre personne prenne la place dudit robot, rapporte-t-on dans l’étude.
Des mensonges mal venus
Chez les 498 participants recrutés dans le cadre de ces travaux de recherche, à qui l’on a demandé de lire l’un des scénarios, puis de répondre à un questionnaire, c’est l’idée du robot filmant des gens à leur insu qui a suscité le plus de réactions négatives.
Interrogés à savoir s’ils considéraient qu’un mensonge pouvait être justifié, ces participants ont estimé que le fait de cacher la vérité à la personne souffrant d’Alzheimer était la moins pire des incartades. Selon les répondants, protéger le patient contre une douleur ou une peine inutile en revient à prioriser les sentiments de quelqu’un, plutôt que d’être absolument honnête.
Quant au robot prétendant souffrir de douleurs, les chercheurs ont constaté que ce geste est jugé comme étant un acte de manipulation.
Mais peu importe le type de mensonge proféré ou de geste caché posé par les robots, les participants à l’étude ont largement eu tendance à blâmer un seul groupe: les développeurs des logiciels utilisés par les robots, ainsi que les propriétaires des machines.
« Je crois que nous devrions nous inquiéter de toute technologie qui est capable de mentir sur ses capacités, puisque cela pourrait mener à de la manipulation des utilisateurs, peut-être même d’une façon jamais prévue par cet utilisateur, ou encore même les développeurs », estime M. Rosero.
« Nous avons déjà vu des exemples de compagnies utilisant des principes de design web et des robots conversationnels afin de manipuler des internautes pour leur faire accomplir certains gestes. Nous avons besoin de règles pour nous protéger contre ces tromperies dangereuses. »