Chaque fois que nous utilisons des services et des plateformes tels que Netflix, Amazon, Facebook et Instagram, pour ne nommer que ceux-là, les algorithmes sont à l’oeuvre pour enregistrer notre activité et fournir des recommandations qui correspondent à ce que le système sait de nous. Dans une nouvelle étude de l’Université de l’Utah, toutefois, des chercheurs affirment qu’un biais genré s’infiltre dans les lignes de code, et donc dans les suggestions fournies aux utilisateurs.
Selon Sachin Banker, principal auteur de ces travaux publiés dans le Journal of Consumer Psychology, « tout ce que nous consommons en ligne est filtré par un genre de système de recommandations ».
« Et ce que nous voulions savoir, c’est s’il existe des biais subtils dans les types d’informations qui sont présentées à différentes personnes, et comment cela affecte le comportement. »
M. Banker, qui se penche sur la façon dont les gens interagissent avec la technologie, affirme que le biais genré est assez facile à étudier, puisque Facebook fournit des informations sur cette caractéristique sociale. Et il n’est pas nécessairement surprenant de constater que les algorithmes, qui effectuent des associations entre des mots basées sur des textes disponibles en ligne, récupèrent des biais qui existent déjà dans le langage humain. Les questions plus importantes, affirme-t-on, tournent autour de la volonté de mesurer l’ampleur de ce phénomène, et les conséquences de celui-ci.
Dans le cadre de leurs travaux de recherche, les spécialistes ont d’abord démontré que les biais genrés présents dans le langage sont intégrés dans les algorithmes, en associant les femmes avec des attributs psychographiques négatifs comme l’impulsivité, l’irresponsabilité financière et l’irrationalité.
L’équipe a ensuite changé un seul mot dans une publicité – « responsable » contre « irresponsable » – pour déterminer qui était ensuite exposé à cette annonce; les chercheurs ont constaté que les publicités avec des attributs psychographiques négatifs étaient plus souvent transmises à des femmes, même s’il n’existe aucune base pour effectuer cette différentiation.
Il s’agit d’une boucle de rétroaction qui s’alimente elle-même, ont constaté les auteurs des travaux, puisque des consommateurs qui ne font pas attention viennent renforcer le biais genré des algorithmes en cliquant souvent sur les pubs, et en acceptant les recommandations reçues.
« Il existe de véritables conséquences à ce biais, sur le marché », soutient M. Banker. « Nous avons démontré que les gens sont partagés entre diverses sphères de consommation, et que cela influence les pensées et les comportements, en plus de renforcer les biais historiques. »
Pour les compagnies à saveur technologique qui font affaire en ligne, les auteurs des travaux affirment que ceux-ci soulignent l’importance d’un meilleur travail proactif afin de minimiser les biais genrés présents dans les algorithmes utilisés pour fournir des publicités et des recommandations aux consommateurs.
Au dire de M. Banker, « les gens faisant la promotion de produits pourraient vouloir tester une publicité avant le lancement de celle-ci, afin de détecter tout biais subtil qui pourrait affecter la distribution de leur annonce. Et les consommateurs devraient être au fait de l’existence de biais pendant qu’ils naviguent sur leurs fils d’actualités et visitent des sites web, en plus de faire preuve de scepticisme face aux publicités et aux recommandations ».
« La plupart des gens », ajoute-t-il, « ne comprennent pas complètement comment le système fonctionne, puisque les géants du web ne dévoilent pas les rouages de leurs algorithmes, bien qu’Amazon semble donner plus d’informations aux consommateurs à propos des recommandations qu’ils reçoivent ».
Et si l’étude s’est concentrée sur les biais de genre, M. Banker estime que d’autres biais doivent aussi exister pour d’autres caractéristiques sociales, comme l’âge, l’orientation sexuelle, l’affiliation religieuse, etc.