Des technologies d’intelligence artificielle comme ChatGPT semblent être partout, de nos jours : elles écrivent du code, composent de la musique, et créent même des images si réalistes qu’elles semblent avoir été prises par des photographes professionnels. Il faut maintenant ajouter la réflexion et la capacité de réponse des humains à la liste : une nouvelle étude de l’Université Brigham Young prouve que l’IA peut répondre à des questions complexes comme un humain.
Les conclusions de ces travaux sont publiées dans Political Analysis.
Pour déterminer la possibilité d’utiliser l’IA comme substitut pour les participants humains lors de recherches impliquant des sondages, une équipe de professeurs de science politique et d’informatique, à leur tour aidés par des étudiants, ont testé la précision des algorithmes d’un modèle linguistique de type GPT-3, soit un modèle qui imite les relations complexes entre les idées, les attitudes et les contextes socioculturels de sous-populations humaines.
Dans le cadre d’un test, les chercheurs ont créé des personnalités artificielles en assignant certaines caractéristiques comme l’appartenance ethnique, l’âge, l’idéologie et le sentiment religieux; ils ont ensuite mené une série d’expériences pour déterminer si cette personne artificielle pouvait voter de la même façon que les humains en 2012, 2016 et 2020, lors des élections présidentielles américaines.
En utilisant la banque de données American National Election Studies comme base de comparaison, les spécialistes ont constaté qu’il existait des similitudes importantes entre la façon dont l’IA et les humains ont exercé leur droit de vote.
« J’ai été complètement surpris de voir à quel point les résultats étaient similaires », a indiqué David Wingate, professeur en science informatique et coauteur de l’étude. « Cela est spécialement intéressant parce que le modèle n’a pas été formé pour la science politique – on ne lui a fourni qu’une centaine de milliards de mots téléchargés à partir d’internet. Mais les informations que nous avons recueillies étaient très étroitement liées à la façon dont les gens ont véritablement voté. »
Dans le cadre d’un autre test, les chercheurs ont conditionné des personnalités artificielles à offrir des réponses provenant d’une liste d’options, le tout dans le cadre d’un sondage aux allures d’entrevue. Là encore, on a constaté une similitude importante entre les tendances nuancées chez l’être humain et celles chez l’IA.
Aux yeux des responsables de l’étude, cette innovation laisse présager d’avancées plus qu’intéressantes pour les chercheurs, les spécialistes du marketing et les sondeurs. Les auteurs des travaux imaginent un avenir où l’IA est employée pour concevoir de meilleures questions de sondage, notamment pour les rendre plus accessibles et représentatives, et même simuler des populations difficiles à rejoindre.
Cette percée pourrait aussi servir pour tester des sondages et des slogans – politique et commerciaux –, en vue de la tenue de groupes de discussion.
« Nous apprenons que l’IA peut nous aider à mieux comprendre les gens », a mentionné Ethan Busby, professeur de science politique. « Cela ne remplace pas les humains, mais vient plutôt nous aider à mieux étudier les gens. C’est une question d’augmenter nos capacités, plutôt que de les remplacer. Cela peut nous aider à être plus efficaces dans notre travail, en nous permettant de pré-tester nos sondages et nos messages. »
Et si les vastes possibilités des grands modèles liés au langage sont intrigantes, le développement de l’IA suscite une série de questions : quelle est la véritable étendue des savoirs de l’intelligence artificielle? Quelles populations pourront en tirer avantage, et lesquelles seront affectées de façon négative? Et comment pouvons-nous nous protéger des fraudeurs qui manipuleront l’IA pour créer des méthodes d’arnaque plus sophistiquées?
Si bien des aspects de ces questions demeurent incertains, écrivent les chercheurs, ceux-ci affirment que leurs travaux établissent des critères que d’autres spécialistes pourront utiliser, à l’avenir, pour déterminer à quel point un modèle d’IA est fiable, selon différents sujets.
« Nous allons voir des avantages parce que cela permettra d’accéder à de nouvelles capacités », a indiqué M. Wingate, en notant que l’IA peut aider les détenteurs de plusieurs types d’emplois à être plus efficaces. « Nous verrons aussi des choses négatives se produire, parce que parfois, les modèles informatiques sont imprécis, ou sont parfois biaisés. Cela va continuer à affecter la société. »
De son côté, M. Bubsy soutient que le fait d’interroger des personnalités artificielles ne devrait pas remplacer le besoin d’interroger de vraies personnes, et que les spécialistes et les experts doivent s’unir pour définir les limites éthiques des sondages menés à l’aide de l’IA dans le cadre des travaux de recherche menés en sciences sociales.
Abonnez-vous à notre infolettre tentaculaire
Encouragez-nous pour le prix d’un café
À l’occasion du mois de la francophonie, l’équipe de Pieuvre.ca tient à souligner son attachement à la qualité de la langue française. Voilà pourquoi nous utilisons quotidiennement Antidote pour réviser nos textes.