Les utilisateurs des médias sociaux pourraient faire autant confiance à l’intelligence artificielle qu’à des modérateurs humains, lorsque vient le temps de détecter les discours haineux et les contenus dangereux, selon des chercheurs de Penn State.
Au dire des experts, lorsque les utilisateurs réfléchissent à propos des qualités des machines, comme leur précision et leur objectivité, ils font davantage confiance à l’IA. Cependant, si on leur rappelle l’incapacité des machines à prendre des décisions subjectives, leur confiance est moindre.
Ces conclusions pourraient aider les développeurs à concevoir de meilleurs systèmes de curation de contenu gérés par l’IA qui peuvent gérer les vastes quantités d’informations qui sont générées, de nos jours, tout en évitant la perception selon laquelle ces contenus ont été censurés, ou encore mal classés, mentionne le professeur S. Shyam Sundar, qui a participé à l’étude.
« Il y a un très grand besoin pour la modération de contenu sur les médias sociaux et, plus généralement, sur internet », mentionne M. Sundar.
« Dans les médias traditionnels, nous avons des pupitres qui servent de gardiens. Mais en ligne, les accès sont grand ouverts, et les humains ne sont pas nécessairement en mesure d’agir comme filtres, particulièrement en raison du volume d’informations qui est généré. Alors, à mesure que l’industrie se dirige de plus en plus vers des solutions automatiques, cette étude se penche sur les différences entre les modérateurs humains et artificiels, en fonction de la réaction des internautes. »
Autant les modérateurs humains que ceux alimentés par l’IA ont leurs avantages et inconvénients. Les humains ont tendance à mieux jauger si des contenus sont dangereux, comme des messages racistes ou des incitations à l’automutilation, selon Maria D. Molina, principale autrice de l’étude, qui est professeure adjointe à l’Université d’État du Michigan.
« Les humains, cependant, ne peuvent traiter de grandes quantités de contenus, y compris le fort volume qui est généré présentement. »
« Lorsque nous pensons à de la modération de contenu automatisée, cela soulève la question de savoir si ces machines peuvent empiéter sur la liberté d’expression », indique Mme Molina. « Cela crée une dichotomie entre le fait qu’il nous faut davantage de modération de contenu, puisque les gens partagent de grandes quantités de contenus problématiques, et, au même moment, les internautes s’inquiètent de la capacité de l’IA à modérer du contenu. Alors, ultimement, nous voulons savoir comment nous pouvons créer des modérateurs IA à qui les internautes peuvent faire confiance, le tout sans empiéter sur la liberté d’expression. »
Transparence et transparence interactive
Selon Mme Molina, unir les humains et l’IA dans le contexte de la modération pourrait être une façon de construire un système de gestion des contenus qui suscite la confiance. Toujours au dire de la chercheuse, la transparence, ou le fait d’indiquer à des utilisateurs qu’un ordinateur est impliqué dans la modération, est une approche qui permet d’améliorer la confiance envers l’IA.
Cependant, permettre aux internautes de fournir des suggestions à cette même machine, un procédé appelé transparence interactive, serait encore plus efficace pour améliorer la confiance.
Pour étudier ces deux options, entre autres variables, les chercheurs ont recruté 676 participants pour qu’ils interagissent avec un système de classification du contenu. Les participants ont été liés, de façon aléatoire, à l’une de 18 conditions expérimentales, conçues pour tester comment la source de modération – qu’elle soit artificielle, humaine ou un mélange des deux – et la transparence – normale, interactive ou sans transparence – peuvent affecter la confiance des participants envers des modérateurs artificiels.
Les chercheurs ont testé des décisions en matière de classification – en vertu desquelles les contenus étaient jugés « à risque » ou « pas à risque » d’être dangereux ou haineux. Le test sur les contenus « dangereux » était lié à des pensées suicidaires, tandis que le test sur les contenus « haineux » comprenait des discours haineux.
Le fait de donner aux utilisateurs une chance d’aider l’IA à décider si une information numérique est nuisible, ou non, pourrait aussi renforcer leur confiance. Selon les chercheurs, les participants qui ont ajouté leurs propres termes aux résultats d’une liste de mots clés produite par l’IA faisaient autant confiance à une machine, pour effectuer de la modération, qu’à un humain.
Craintes éthiques
M. Sundar estime que le fait de retirer aux humains la responsabilité de modérer les contenus va au-delà du fait de réduire la pression et l’impact d’un travail difficile. Embaucher des modérateurs humains sont effectivement exposés à des heures et des heures de contenus haineux et violents, rappelle-t-il.
« Il existe un besoin éthique pour de la modération de contenu automatisée », soutient M. Sundar. « Il faut protéger les modérateurs humains, qui accomplissent une tâche ayant un avantage social, contre l’exposition constante à du contenu dangereux jour après jour. »
« Il faut concevoir quelque chose qui permet non seulement de faire confiance au système, mais aussi permettre aux gens de façon à ce qu’ils comprennent le fonctionnement de l’IA », juge pour sa part Mme Molina. « Comment pouvons-nous utiliser le concept de la transparence interactive et d’autres méthodes pour mieux comprendre l’intelligence artificielle? Et comment pouvons-nous présenter l’IA pour que cela implique le bon équilibre entre l’appréciation des capacités des machines et le scepticisme à propos de leurs faiblesses? Ces questions méritent d’être étudiées. »