De nos jours, les assistants personnels peuvent comprendre ce que l’on dit, mais que se passerait-il s’ils pouvaient déterminer ce que nous pensons en fonction de nos gestes? Une équipe de chercheurs dirigés par l’Université Carnegie Mellon (CMU) travaille à développer des agents d’intelligence artificielle possédant ce talent.
Le but du projet étalé sur 4 ans, évalué à 6,6 millions de dollars américains et dirigé par Katia Sycara, de l’Institut de robotique de la CMU, avec une commandite de la DARPA, l’agence de recherche spécialisée liée à la Défense américaine, consiste à utiliser « l’intelligence machine sociale » pour aider des équipes formées d’humains et de machines à travailler ensemble de façon « sécuritaire, efficace et productive ». Le projet inclut des experts en matière de facteurs humains et des neuroscientifiques de l’Université de Pittsburgh et de l’entreprise militaire Northrop Grumman.
« L’idée est, pour la machine, de tenter de déterminer ce que les humains pensent en fonction de leur comportement », a indiqué Mme Sycara, qui développe des agents logiciels depuis des décennies. « La personne est-elle confuse? Portent-ils attention à ce qui est nécessaire? Sont-ils débordés? Dans certains cas, l’agent logiciel pourrait déterminer qu’un équipier commet des erreurs en raison d’une mauvaise information ou d’un manque de formation », a-t-elle ajouté.
L’équipe de recherche testera ses agents socialement intelligents dans le cadre d’un scénario de recherche et de sauvetage se déroulant dans le jeu vidéo Minecraft. Ce site de test a été mis au point en collaboration avec des chercheurs de l’Université d’État de l’Arizona. Au cours de la première année du projet, les scientifiques formeront leur agent logiciel pour déterminer l’état d’esprit d’un membre individuel de l’équipe. Dans les années suivantes, l’agent logiciel interagira avec plusieurs joueurs humains et cherchera à comprendre ce que chacun d’entre eux pense, même lorsque leur environnement virtuel change.