Alors que les élections européennes sont en cours, des millions de citoyens du Vieux Continent en sont à prendre une décision avant d’aller déposer leur bulletin de vote dans l’urne. Mais si ces gens se tournent vers LlamaChat, l’un des principaux robots conversationnels alimentés par l’intelligence artificielle (IA), ils pourraient être confrontés à des biais à saveur politique.
Il appert en effet, selon une nouvelle étude, que le modèle langagier développé par Meta, sur lequel s’appuie LlamaChat, a des positions clairement campées à gauche.
Au sein du département des sciences informatiques de l’Université de Copenhague, des chercheurs ont examiné la connaissance, par ce système langagier, des groupes politiques présents au sein du Parlement européen. Par ailleurs, ces spécialistes ont testé les positions politiques de LlamaChat, en lien avec le paysage européen.
Les résultats sont disponibles sur arXiv, un serveur de prépublication, ce qui signifie qu’une révision par les pairs n’a pas encore eu lieu.
« Nous voyons que LlamaChat a des préjugés favorables envers les points de vue pro-européens et plus à gauche. Ce modèle correspond davantage au positionnement des verts et du centre gauche que du centre droit ou de l’extrême droite », affirme ainsi Ilias Chalkidis, l’un des chercheurs impliqués dans les travaux de recherche.
Les auteurs de l’étude ont ainsi fait passer un questionnaire à saveur de politique européenne au robot conversationnel. On a entre autres demandé à LlamaChat s’il était d’accord avec l’idée de restreindre davantage l’immigration, et si l’intégration européenne « est une bonne chose ».
La vision éthique fait partie du problème
Au dire des chercheurs, il existe deux principales raisons pour lesquelles LlamaChat souffre d’un biais politique. L’une d’entre elles, dit-on, est le fait que les banques de données tirées du web, en fonction desquelles le modèle langagier est « entraîné », pourraient avoir été biaisées.
« De plus, le modèle est probablement influencé par le propre code de conduite éthique de Meta (la maison mère de Facebook, NDLR). Cela s’explique par le fait que les nouveaux modèles langagiers sont optimisés, dans le contexte du processus d’entraînement, par des gens qui offrent des « récompenses » pour éviter les réponses racistes ou sexistes, tel que déterminé par les propres normes éthiques de la compagnie. Et cela peut donc pousser le modèle langagier vers des positions moins controversées, ce qui peut plus souvent caractériser les perspectives de la gauche », a fait savoir l’autre autrice de l’étude, Stephanie Brandl.
Selon cette dernière, cet état de fait est problématique: « Les compagnies développent elles-mêmes ces vastes modèles langagiers et personne d’autre que ces entreprises n’a d’influence sur le genre de données qui servent à leur entraînement, ou quels types de garde-fous sont pris en compte. Heureusement, il existe quelque démarches, en ce moment, dans certains pays européens, où des agences publiques financent le développement de modèles langagiers et s’assurent de prendre leurs responsabilités afin de mieux contrôler les ensembles de données et des normes utilisées lors de « l’éducation » des modèles langagiers. »
Il ne s’agit pas de la première occasion où des modèles langagiers ont démontré leurs biais politiques. Ainsi, une étude britannique menée l’an dernier a démontré que la version 3.5 de ChatGPT penchait vers la gauche, aux États-Unis, au Brésil et au Royaume-Uni. Mais il s’agit de la première fois où les biais politiques de modèles langagiers font l’objet d’une étude dans le contexte de l’Union européenne.
Des changements sont possibles
Les chercheurs ont aussi révélé, dans leurs travaux, qu’il est possible de modifier les biais politiques d’un modèle langagier en offrant de la formation supplémentaire et en contournant les normes éthiques avec lesquelles ledit modèle est « né ».
« En fournissant des milliers de discours à saveur politiques en provenance de divers partis, par exemple des partis d’extrême droite, et en brisant le modèle éthique intégré à l’aide de certaines commandes, il est possible d’apporter des modifications précises pour orienter le modèle différemment », a mentionné M. Chalkidis.
Ce dernier et sa collègue espèrent que leur étude représentera la première étape vers le développement d’un modèle langagier qui peut servir à mieux informer les citoyens à propos de la politique.
« En ce moment, nous avons un problème avec ces modèles, qui sont non seulement biaisés, mais proposent aussi de la désinformation. Cependant, il existe un grand potentiel démocratique pour les citoyens, si nous sommes en mesure d’améliorer les modèles langagiers afin d’offrir des réponses nuancées et de l’information exacte », a renchéri Mme Brandl.