On parle de l’intelligence artificielle avec un « il » ou un « elle », et on utilise des verbes qui laissent croire « qu’elle » vit une émotion. Et l’erreur est commise par des journalistes, mais aussi par des scientifiques.
Quatre chercheurs de l’Université Stanford, en Californie, ont analysé le contenu de plus de 655 000 publications scientifiques parues entre 2007 et septembre 2023, ainsi que de 14 000 articles journalistiques qui citaient certaines de ces études. Leur conclusion: on a non seulement tendance à « anthropomorphiser » la technologie —mais en plus, c’est une habitude qui prend plus de place qu’avant. Leur analyse a été prépubliée au début de février sur le serveur ArXiv.
« Anthropomorphisme » renvoie à ce réflexe de prêter à un animal, ou même à un objet, des comportements humains, des émotions, voire des intentions.
Comme par exemple: dire de l’IA qu’elle « hallucine » plutôt que de dire qu’elle commet des erreurs ou dit des faussetés. La mauvaise habitude serait devenue particulièrement forte avec l’arrivée des agents conversationnels tels que ChatGPT, selon les auteurs, qui ont conçu une méthode de « pointage » pour tenter de le mesurer.
Et c’est une mauvaise habitude qui n’est pas sans conséquence: elle conduit à tromper le public sur ce qu’est vraiment l’IA et à surestimer ce que sont ses véritables capacités — ce qui, du coup, peut amener le public à lui faire un peu trop confiance, ou à la voir comme une forme d’intelligence supérieure. Une éventuelle règlementation devra tenir compte de cette tendance à préjuger de ce qu’est l’IA — et de ce qu’elle n’est pas.