Les organisations utilisant l’intelligence artificielle pour surveiller le comportement et la productivité de leurs employés peuvent s’attendre à ce que ceux-ci se plaignent davantage, soient moins efficaces et souhaitent davantage démissionner – à moins que la technologie ne puisse être présentée comme une partie intégrante de l’aide à leur développement, révèle une étude de l’Université Cornell.
Selon les auteurs de ces travaux, les outils en question, qui sont de plus en plus utilisés pour surveiller et analyser l’activité physique, les expressions faciales, le ton de voix et les communications verbales et écrites, poussent les travailleurs à ressentir un plus fort sentiment de perte d’autonomie, comparativement à de la surveillance effectuée par des humains.
Toujours au dire des chercheurs, les entreprises qui s’appuient sur ces méthodes devraient donc « faire attention aux conséquences » de celles-ci, notamment une résistance de la part des employés, ainsi qu’une baisse de la performance.
Les auteurs de l’étude jugent aussi qu’il existe la possibilité de « convaincre » les employés de la pertinence de cette surveillance, si ceux-ci jugent que les outils employés sont là pour les aider, plutôt que pour évaluer leur performance.
« Lorsque l’intelligence artificielle et d’autres technologies avancées sont mises en place à des fin de développement, les employés apprécient de pouvoir poursuivre leur apprentissage et améliorer leur performance », affirme Emily Zitek, une professeure adjointe spécialisée en comportement organisationnel et la coautrice de l’étude.
« Les problèmes surviennent lorsque les travailleurs ont l’impression qu’une évaluation se déroule automatiquement, directement à partir des données recueillies, et qu’ils ne sont pas en mesure de contextualiser le tout, de quelque manière que ce soit. »
De fait, la surveillance algorithmique a déjà entraîné son lot de critiques. En 2020, une banque spécialisée dans les investissements a rapidement abandonné un programme pilote de test de logiciels de productivité visant à surveiller l’activité de ses employés, y compris l’envoi d’alertes si ceux-ci prenaient trop de pauses. La surveillance effectuée par des écoles lors d’examens virtuels, durant la pandémie, a provoqué des montées aux barricades et des poursuites, rappelle-t-on, alors que des élèves et des étudiants ont dit craindre que tout mouvement ne soit considéré comme une tentative de triche.
D’un autre côté, mentionne-t-on dans le contexte de l’étude, certaines personnes pourraient considérer que les algorithmes sont plus efficaces et objectifs. Et de précédents travaux ont démontré que la population est plus ouverte à l’idée de systèmes de surveillance des comportements, comme des badges ou des montres intelligentes, lorsque ceux-ci fournissent de la rétroaction directement, plutôt que via quelqu’un qui pourrait développer des jugements négatifs en s’appuyant sur les informations disponibles.
Quatre tests importants
Dans le cadre de quatre expériences rassemblant un total d’environ 1200 participants, les auteurs de l’étude nt tenté de savoir s’il est important que des humains effectuent une surveillance, plutôt que de l’IA ou des technologies liées (ou inversement), et si le contexte de l’utilisation de ces outils – évaluer les performances ou aider au développement –a un impact sur les perceptions des employés.
Au cours du premier test, lorsqu’on leur a demandé de se souvenir de moments où leur travail était surveillé par l’IA ou par un humain, les participants ont dit se sentir moins autonomes sous l’oeil d’une machine, et étaient davantage portés à adopter des « comportements de résistance ».
Par la suite, pendant la deuxième expérience, plus de 30% des personnes interrogées ont critiqué la surveillance effectuée par l’IA, comparativement à 7% qui ont dénoncé la surveillance menée par un humain, alors qu’autant le logiciel que l’humain en question adoptaient le même comportement et réclamaient autant de participation de la part des participants au test.
« Les commentaires et les indications transmis par l’IA n’ont fait que rendre la situation plus stressante, en plus de nuire à la créativité », a ainsi écrit l’une des personnes ayant contribué à l’étude.
Au-delà des plaintes et des critiques, les chercheurs ont constaté que ceux qui pensaient être surveillés par l’IA avaient généré moins d’idées, dans un contexte de « tempête d’idées » – un brainstorm –, ce qui témoigne d’une efficacité en baisse.
Fort des résultats de leurs quatre tests, les auteurs de l’étude estiment qu’il existe une opportunité, pour les entreprises, de mettre en place de la surveillance algorithmique de façon à susciter la confiance des employés, plutôt que leur résistance, voire leur défiance.
« Les organisations qui tentent de mettre en place ce genre de surveillance doivent en reconnaître les avantages et les inconvénients », affirme la Pre Zitek. « Elles devraient faire tout ce qu’elles peuvent pour favoriser le développement, ou permettre aux employés d’offrir une mise en contexte. Si les gens sentent qu’ils n’ont pas d’autonomie, ils ne seront pas heureux. »