Les réponses humaines à des dilemmes moraux peuvent être influencées par des déclarations produites par le robot conversationnel ChatGPT, selon une nouvelle étude publiée dans Scientific Reports. Les conclusions des travaux semblent souligner le fait que les utilisateurs du service pourraient sous-estimer à quel point leur propre jugement moral peut être transformé en raison de l’influence de ce programme.
Sebastian Krügel et ses collègues ont ainsi demandé à plusieurs reprises à ChatGPT s’il était acceptable de sacrifier la vie d’une personne pour en sauver cinq autres. Les chercheurs ont constaté que le robot a fourni des déclarations abondant dans les deux sens de l’argument, ce qui indique que le programme n’est pas biaisé en faveur d’une certaine position morale.
Les auteurs des travaux ont ensuite présenté, à un total de 767 participants originaires des États-Unis et âgés de 39 ans en moyenne, l’un de deux dilemmes moraux qui exigent de décider s’il faut sacrifier une personne pour en sauver d’autres. Avant de répondre, les participants ont lu un message de ChatGPT arguant en faveur ou en défaveur du sacrifice d’une vie pour en sauver cinq autres. Ces déclarations ont été attribuées qui à un conseiller en morale, qui à ChatGPT.
Après avoir répondu, les participants ont dû indiquer si la déclaration lue avait influencé leur réponse.
Les chercheurs ont constaté que les participants étaient davantage portés à considérer le sacrifice d’une personne comme étant acceptable, ou encore inacceptable, selon si la déclaration lu avant de prendre une décision allait en ce sens.
Cela s’est avéré vrai même si ladite déclaration était attribuable à ChatGPT.
Ces conclusions portent à croire, juge-t-on, que les participants pouvaient avoir été influencés par les déclarations présentées, même lorsqu’elles étaient attribuées à un robot conversationnel.
Un total de 80 % des participants ont mentionné que leur réponse n’avait pas été influencée par la déclaration qu’ils avaient lue. Les auteurs des travaux ont toutefois constaté que les réponses que les participants croyaient qu’ils auraient fournies sans lire la déclaration au préalable avaient quand même davantage de chances de correspondre à la position morale contenue dans ladite déclaration qu’à une position opposée.
Cet état de fait viendrait indiquer que les participants pourraient avoir sous-estimé l’influence des déclarations de ChatGPT sur leurs propres jugements moraux.
Aux yeux des chercheurs, cet impact potentiel des robots sur le jugement moral humain vient renforcer la nécessité d’offrir davantage d’éducation pour aider à mieux comprendre l’intelligence artificielle. Dans le cadre de futurs travaux de recherche, les auteurs proposent de concevoir des robots conversationnels qui soit refuseraient de répondre à des questions nécessitant un jugement moral, soit répondraient à ces questions en offrant plusieurs arguments… et leurs failles.