Bien que les gens mentent beaucoup, ils s’abstiennent généralement d’accuser les autres de mentir, en raison des normes sociales entourant les fausses accusations, et pour respecter une certaine règle de politesse. Mais l’intelligence artificielle pourrait bien bousculer ces conventions.
Dans une étude récemment publiée dans iScience, des chercheurs ont ainsi démontré que les individus sont bien plus portés à accuser les autres de mentir lorsque l’accusation est portée par l’IA. Selon les auteurs des travaux, ces conclusions démontrent les impacts et les implications sociales de l’utilisation de systèmes d’intelligence artificielle lorsque vient le temps de détecter les mensonges, et donc aider les décideurs lorsque ceux-ci souhaitent mettre en place des technologies similaires.
« Notre société possède des normes solides et bien établies en ce qui concerne les accusations de mensonge », affirme le principal auteur de l’étude, Nils Köbis, un spécialiste du comportement à l’Université de Duisbourg et Essen, en Allemagne.
« Cela prendrait beaucoup de courage et de preuves pour accuser ouvertement les autres de mentir. Mais notre étude démontre que l’IA pourrait devenir une excuse derrière laquelle les gens pourraient se cacher, afin d’éviter d’être tenus pour responsables des conséquences de leurs accusations. »
Comme le rappellent les chercheurs, la société humaine fonctionne depuis longtemps sur l’idée de faire confiance par défaut, ce qui explique pourquoi les gens assument habituellement que ce qu’ils entendent est la vérité. En raison de cette tendance à faire confiance aux autres, les humains sont mal équipés lorsque vient le temps de détecter des mensonges. De précédentes études ont d’ailleurs démontré que les individus ne font pas mieux que le hasard pur lorsqu’ils doivent départager le vrai du faux.
M. Köbis et sont équipe souhaitaient ainsi déterminer si la présence de l’IA changerait les normes sociales et les comportements établis, en lien avec des accusations de mensonge.
Pour en avoir le coeur net, les chercheurs ont demandé à 986 personnes d’écrire deux descriptions – l’une vraie, l’autre fausse – de ce qu’ils envisageaient de faire au cours de la fin de semaine. L’équipe a ensuite entraîné un algorithme avec ces données, histoire de concevoir un modèle d’intelligence artificielle qui était en mesure d’identifier les fausses déclarations 66% du temps, soit une proportion bien plus importante que ce peut accomplir un humain en temps normal.
Ensuite, l’équipe a recruté plus de 2000 participants pour faire office de juges qui liraient une déclaration et décideraient si celle-ci est vraie ou fausse. Ces personnes ont été réparties en quatre groupes: « référence », « forcés », « bloqués » et « choix.
Dans le groupe de référence, les participants répondaient « vrai » ou « faux » sans aide de l’IA. Dans le groupe des gens forcés, ils recevaient toujours une prédiction de l’ordinateur avant de prendre une décision. Et dans les deux autres groupes, les participants avaient l’option de recevoir la prédiction en question. Les gens faisant partie du groupe des « bloqués » et qui demandaient une prédiction ne la recevaient pas, tandis que c’était bel et bien le cas pour les gens appartenant au groupe du « choix ».
Les chercheurs ont constaté que les participants du groupe de référence étaient précis à 46% lorsque venait le temps d’identifier si une déclaration était vraie ou fausse. Seulement 19% des personnes rattachées à ce groupe ont affirmé que les déclarations qu’elles lisaient étaient fausses, même si elles savaient que c’était plutôt le cas de la moitié. Cela confirme le fait que les gens évitent habituellement d’affirmer qu’une personne ment.
Dans le groupe des gens forcés, où l’IA offrait une prédiction, que celle-ci soit voulue ou non, plus du tiers des participants ont jugé les déclarations comme étant fausses. Ce taux est largement supérieur à celui des groupes de référence et ceux qui étaient « bloqués », c’est-à-dire qu’ils ne pouvaient pas obtenir de prédiction de l’IA.
Lorsque l’IA a prédit qu’une déclaration était vraie, seulement 13% des participants ont soutenu qu’elle était plutôt fausse. Cependant, lorsque le même logiciel a affirmé qu’une déclaration était fausse, plus de 40% des personnes interrogées ont adopté le même point de vue.
Les risques de l’algorithme
De plus, chez ceux et celles qui avaient demandé et reçu une prédiction de la part de l’IA, un total de 84% des participants ont adopté ladite prédiction et lancé des accusations de mensonge lorsque l’IA a soutenu qu’une déclaration était fausse.
« Cela démontre qu’une fois que les gens auront accès à un tel algorithme, ils s’appuieraient sur celui-ci et pourraient changer leur comportement. Si l’algorithme soutient que quelque chose est un mensonge, les gens sont prêts à abonder dans ce sens. Cela est inquiétant, et cela démontre que nous devrions être prudents avec cette technologie », soutient M. Köbis.
De façon intéressante, les participants semblaient hésiter à utiliser l’IA comme outil de détection des mensonges. Dans les groupes des gens « bloqués », et ceux qui pouvaient choisir de recevoir une prédiction, seul le tiers des participants ont bel et bien demandé l’aide de l’ordinateur.
Cet état de fait a pris les chercheurs par surprise, parce que ceux-ci avaient indiqué à l’avance, aux participants, que l’algorithme pouvait détecter les mensonges de façon plus efficace que les humains. « Cela pourrait découler de cet effet particulièrement robuste que nous constatons dans diverses études, à savoir que les gens ont exagérément confiance envers leur capacité à identifier des mensonges, même si les humains sont vraiment mauvais en la matière », a encore mentionné M. Köbis.
L’IA est connue pour ses erreurs fréquentes, et pour sa tendance à renforcer les biais. En fonction des résultats de l’étude, M. Köbis propose que les décideurs réévaluent leur volonté d’utiliser cette technologie dans des domaines complexes, par exemple lorsque vient le temps d’offrir l’asile à de nouveaux arrivants à la frontière.
« Il y a tellement d’enthousiasme à propos de l’IA, et bien des gens croient que les algorithmes sont vraiment, vraiment efficaces, voire même qu’ils sont objectifs. Je suis vraiment inquiet de la possibilité que cela pourrait pousser les gens à trop se tourner vers ces systèmes, même si ceux-ci ne fonctionnent pas si bien que ça. »