Lorsque deux personnes se rencontrent, elle s’évaluent automatiquement, en portant des jugements rapides sur toutes sortes d’aspects, allant de l’âge de l’autre personne à leur intelligence, en passant par leur fiabilité, le tout uniquement en fonction de leur apparence. Ces premières impressions, si elles sont souvent erronées, peuvent être extrêmement puissantes, et moduler nos relations, en plus d’avoir un impact sur toutes sortes de choses, comme par exemple la décision d’embaucher quelqu’un, ou de rendre une sentence lors d’un procès criminel. Des chercheurs se sont intéressés à ce phénomène en apprenant à une intelligence artificielle à agir de la sorte… Dans le but de corriger ces réactions instinctives.
Ces scientifiques, rattachés au Stevens Institute of Technology, en collaboration avec les Universités Princeton et de Chicago, ont ainsi formé un algorithme d’intelligence artificielle pour que celui-ci puisse modéliser cette première impression et prédire comment les gens seront perçus en fonction d’une photo de leur visage. Ces travaux ont été publiés dans Proceedings of the National Academy of Sciences.
« Il existe de nombreux travaux qui se concentrent sur la modélisation de l’apparence physique des visages des gens », indique Jordan W. Suchow, un scientifique spécialisé en cognition et un expert en IA. « Nous regroupons tout cela avec les jugements humains, et nous utilisons l’apprentissage machine pour étudier les premières impressions biaisées des gens lorsqu’ils rencontrent quelqu’un d’autre. »
M. Suchow et son équipe ont demandé à des milliers de personnes de donner leurs premières impressions par rapport à plus de 1000 photos de visages générées par ordinateur, en utilisant des critères comme le niveau d’intelligence, la capacité d’être élu, le côté religieux, le fait d’être ou non digne de confiance, ainsi que l’impression que la « personne » est extrovertie (ou pas). Les réponses ont ensuite servi à « entraîner » un réseau neuronal pour que celui-ci puisse passer des jugements rapides sur des gens, en se fiant uniquement à une photo de leur visage.
« Avec votre visage, nous pouvons utiliser cet algorithme pour prédire ce que seront les premières impressions des gens, et quels stéréotypes seront projetés sur vous, une fois qu’ils verront votre visage », mentionne M. Suchow.
La plupart des constatations de l’algorithme correspondent aux intuitions collectives ou aux assomptions culturelles: les gens qui sourient tendent à être vus comme davantage dignes de confiance, par exemple, tandis que ceux qui portent des lunettes sont considérés comme étant plus intelligents. Dans d’autres cas, il est un peu plus dur de comprendre pourquoi l’algorithme attribue un trait particulier à une personne.
« L’algorithme n’offre pas de rétroaction ciblée, pas plus qu’il n’explique pourquoi une image spécifique suscite un jugement particulier », a encore indiqué M. Suchow. « Mais même dans cette situation, cela peut nous aider à comprendre comment nous sommes perçus – nous pouvions classer une série de photos en fonction du fait qu’elles faisaient paraître un individu comme digne de confiance, par exemple, ce qui permet de faire des choix sur la façon de se mettre en valeur. »
Bien que d’abord développé pour aider des chercheurs en psychologie à générer des images de visages pour les utiliser dans le cadre d’expériences sur la perception et la cognition sociale, le nouvel algorithme pourrait aussi servir dans la vie de tous les jours. Les individus cultivent généralement une personnalité publique de façon minutieuse, par exemple, en partageant uniquement des photos qui les feront paraître intelligents, confiants ou attirants, et il est facile de voir comment cet algorithme pourrait favoriser ce processus, a poursuivi M. Suchow.
Puisqu’il existe déjà des normes sociales encadrant le fait de se mettre de l’avant de façon positive, cela vient contourner certains des enjeux éthiques entourant la technologie, a-t-il ajouté.
Risques de manipulation
De façon encore plus troublante, l’algorithme peut aussi servir à manipuler des photos pour faire en sorte que leurs sujets correspondent davantage à certains traits – par exemple en transformant un politicien pour qu’il semble davantage digne de confiance, ou rendre son adversaire « moins intelligent » ou « plus suspect ». Si des outils liés à l’IA sont déjà employés pour créer de fausses vidéos montrant des événements qui ne se sont jamais produits, le nouvel algorithme pourrait subtilement modifier de vraies images pour manipuler l’avis du public à propos de la personne qui se trouve sur le cliché.
« Avec cette technologie, il est possible de prendre une photo et d’en créer une version modifiée conçue pour donner une certaine impression », met en garde M. Suchow. « Pour des raisons évidentes, nous devons faire attention à la façon dont cette technologie est employée. »
Pour protéger cette dernière, justement, les chercheurs ont déposé un brevet et travaillent actuellement à la création d’une nouvelle entreprise pour offrir des licences d’utilisation de l’algorithme à des fins éthiques préapprouvées. « Nous posons tous les gestes que nous pouvons pour nous assurer que l’algorithme ne sera pas utilisé pour causer du tort. »
Si la version actuelle de l’algorithme se concentre sur les réponses moyennes à un visage donné chez un grand groupe de personnes, M. Suchow espère développer un autre algorithme, capable cette fois de prédire comment une seule personne répondra à un autre visage. Cela pourrait permettre d’obtenir des informations beaucoup plus complètes sur la façon dont les jugements rapides viennent moduler nos interactions sociales, et potentiellement aider les gens à les reconnaître et à aller au-delà des premières impressions lorsque nous prenons des décisions importantes.
« Il est important de se rappeler que les jugements que nous modélisons ne révèlent rien sur la vraie personnalité ou les compétences d’une personne », rappelle M. Suchow. « Ce que nous faisons, ici, c’est d’étudier les stéréotypes chez les gens, et c’est quelque chose que nous devrions tous chercher à mieux comprendre. »