Parmi les situations recensées, on note les gens qui se sont déplacés pour laisser le robot circuler, un laveur de carreaux qui a interrompu sa tâche pendant quelques instants, ou encore donner une poussée, avec le pied, pour encourager le robot à bouger lorsque celui-ci a ralenti, ou encore modifier le rythme d’une marche pour demeurer derrière l’engin.
Browsing: robot
Considérer la machine comme humaine conduit à tromper le public sur ce qu’est vraiment l’IA et à surestimer ce que sont ses véritables capacités — ce qui, du coup, peut amener le public à lui faire un peu trop confiance, ou à la voir comme une forme d’intelligence supérieure.
« Les conclusions démontrent que la façon dont l’autonomie des robots est perçue – et, ultimement, la façon dont on juge leur possible culpabilité – est influencée, de façon très subtile, par la méthode employée pour les décrire. »
Resterait toutefois à séparer les vêtements par catégorie. Ou même à les plier. Mais ce sont là des tâches qui dépassent pour l’instant les capacités des robots…
Les armes autonomes contrôlées par l’IA existent d’ores et déjà, et en dépit des progrès des dernières années, il est acquis qu’elles peuvent encore faire des erreurs. De plus, le potentiel de dommages élevé est inhérent à la nature même de ces systèmes: leur rapidité, qui constitue leur principal attrait aux yeux des militaires, et leur complexité.
La rédaction d’un rapport sur l’état de l’IA a été confiée au chercheur montréalais Yoshua Bengio: en théorie, il pourrait s’agir d’un premier pas vers un « GIEC de l’IA ».
ChatGPT pourrait-il remplacer les réviseurs humains? C’est ce qu’ont voulu tester des chercheurs dirigés par James Zou, expert en apprentissage-machine à l’Université Stanford, en Californie.
À cause du mode même de fonctionnement de l’IA, qui consiste à la nourrir d’immenses bases de données, ces biais reflètent ceux qui, conscients ou inconscients, existent dans notre société, se retrouvent donc dans ces bases de données, et chez les programmeurs.
Les auteurs de l’étude espèrent que leurs travaux mèneront à une conversation plus vaste permettant d’établir des normes éthiques et un cadre réglementaire en ce qui concerne l’utilisation de l’IA en recherche et en éducation.
Les données portent à croire que les humains n’auraient pas nécessairement pas besoin de machines qui leur ressemble pour leur faire confiance et travailler avec elles. Il semble plutôt être plus aisé de collaborer avec des robots qui n’ont pas ce côté « humain ».