Est-il impossible de venir à bout des biais raciaux? Il appert que les logiciels de conduite autonome sont moins en mesure de détecter les personnes à la peau plus foncée que ceux à la peau plus claire, révèle une étude réalisée par des chercheurs du King’s College, à Londres, et de l’Université de Pékin, en Chine.
Les auteurs des travaux ont ainsi testé huit détecteurs de piétons s’appuyant sur des algorithmes d’intelligence artificielle, détecteurs qui sont employés par des fabricants de voitures autonomes; ils ont constaté qu’il existait une différence de 7,5 % dans l’efficacité de la détection, en fonction de la couleur de la peau des sujets.
Tout aussi troublant, écrivent les chercheurs, cette capacité déjà réduite de détecter des piétons à la peau plus sombre est encore plus affectée par les conditions d’éclairage, sur la route.
« Les biais défavorables envers les personnes à la peau foncée augmentent considérablement selon des scénarios de faible contraste et de faible luminosité », a fait savoir Jie M. Zhang, l’une des six chercheurs qui ont participé à l’étude.
Le taux de détection erronée de ces personnes à la peau foncée est ainsi passé de 7,14 %, en plein jour, à 9,86 % durant la nuit.
Ces travaux de recherche ont aussi démontré un plus fort taux de détection des adultes que des enfants. Les premiers étaient 20 % plus souvent correctement identifiés que les seconds.
« En matière d’IA, l’égalité peut être définie par un moment où l’ordinateur traite les groupes privilégiés et moins privilégiés de la même façon, ce qui n’est pas ce qui se passe lorsqu’il est question de véhicules autonomes », a poursuivi Mme Zhang.
Celle-ci a noté que si les sources des données de formation des IA des fabricants de voitures demeurent confidentielles, il est possible d’assumer que celles-ci sont bâties sur les mêmes systèmes en code source libre que celles utilisées par les chercheurs.
« Nous pouvons être passablement certains qu’ils sont confrontés aux mêmes problèmes en matière de biais », a affirmé Mme Zhang.
Selon la chercheuse, les biais, intentionnels ou non, sont un problème de longue date. Mais lorsqu’il est question de voitures autonomes cherchant à reconnaître des piétons, les enjeux sont encore plus importants.
« Si l’impact des systèmes d’IA injustes a déjà été largement documenté, que ce soit des logiciels de recrutement qui favorisent les hommes, aux programmes de reconnaissance faciale qui sont moins efficaces pour les femmes noires que pour les hommes blancs, le danger représenté par les voitures sans conducteur est très important », a encore souligné Mme Zhang.
« Avant, des membres de minorités culturelles pouvaient se voir refuser l’accès à des services essentiels. Maintenant, ils risquent des blessures graves. »
Mme Zhang réclame la mise en place de normes et de lois pour s’assurer que les données de l’IA sont utilisées de façon non biaisée.
« Les fabricants automobiles et le gouvernement doivent s’unir pour définir des normes permettant de s’assurer que la sécurité de ces systèmes peut être mesurée de façon objective, particulièrement lorsqu’il est question d’égalité », a indiqué la chercheuse. « Les dispositions actuelles en ce genre sont limitées, ce qui peut avoir un impact majeur non seulement sur les futurs systèmes, mais directement sur la sécurité des piétons. »
« À mesure que les IA sont de plus en plus intégrées dans nos vies de tous les jours, en allant du genre de voiture que nous conduisons, à la façon dont nous interagissons avec les autorités, cette question de l’égalité ne fera que prendre de l’importance », a conclu Mme Zhang.
Ces conclusions font suite à plusieurs articles et annonces faisant état d’un biais inhérent au sein de grands modèles langagiers. Plusieurs incidents impliquant des stéréotypes, de l’insensibilité culturelle et de mauvaise représentation ont été rapportés depuis que ChatGPT a été rendu accessible au public, à la fin de l’an dernier.