Avez-vous déjà vu une forme sombre du coin de votre oeil, et pensé qu’il s’agissait d’une personne, pour finalement soupirer de soulagement lorsque vous réalisez qu’il s’agit d’un porte-manteau, ou d’un autre objet banal de votre domicile? Il s’agit d’un phénomène visuel sans danger, mais que se passerait-il si ce même tour était joué à une voiture autonome ou à un drone?
Cette question n’est pas hypothétique, affirme Kevin Fu, professeur en génie et science de l’informatique qui se spécialise dans la détection et l’exploitation de nouvelles technologies à l’Université Northeastern.
Ce dernier affirme avoir trouvé comment faire halluciner les voitures autonomes que plusieurs rêvent de faire circuler sur les routes.
En révélant une toute nouvelle forme de cyberattaque, une forme d’apprentissage machine que le Pr Fu et son équipe a surnommée « attaques Poltergeist », le chercheur espère prendre de l’avance sur les pirates qui pourraient exploiter ces technologies… avec des conséquences désastreuses.
« Il y a simplement beaucoup trop de choses que nous tenons pour acquises », mentionne le Pr Fu. « Je suis sûr que c’est mon cas, et que je ne le réalise pas parce que nous avons tendance à écarter les choses abstraites, sinon on ne pourrait jamais sortir de chez nous. Le problème avec cette abstraction, c’est qu’elle cache des choses qui pourraient être suivies sur le plan de l’ingénierie, mais elles sont plutôt cachées et permet de présumer de certaines choses. »
« Il pourrait y avoir une chance sur un milliard, mais en matière de sécurité informatique, les parties adverses font survenir cette chance sur un milliard à toutes les occasions », a ajouté le professeur.
Cette attaque Poltergeist va au-delà du blocage ou de l’interférence avec des technologies, comme d’autres formes de cyberattaques. Le Pr Fu affirme que sa méthode crée des « réalités cohérente fausses », c’est-à-dire des illusions d’optique pour des ordinateurs qui s’appuient sur l’apprentissage machine pour prendre des décisions.
Ce type d’attaque informatique exploite le processus de stabilisation d’image que l’on retrouve dans la plupart des caméras modernes, qu’elles se trouvent dans un téléphone ou dans une voiture autonome. Cette technologie est conçue pour détecter le mouvement et l’instabilité du photographe, et d’ajuster la lentille pour s’assurer que les photos ne sont pas floues.
« Normalement, c’est utilisé pour améliorer la netteté, mais puisque l’on trouve un senseur à l’intérieur, et que ces senseurs sont faits de matériaux, si vous atteignez la fréquence de résonnance de ces matériaux, comme le chanteur d’opéra qui atteint la note permettant de fracasser un verre à vin, si vous atteignez la bonne note, vous pouvez faire en sorte que ces senseurs transmettent de fausses informations », affirme le Pr Fu.
Des images (et des objets) fantômes
En effectuant des recherches sur cette méthode, le Pr Fu et son équipe ont été en mesure de changer la façon dont les voitures autonomes et les drones perçoivent leur environnement. Pour un oeil humain, les images floues produites par une attaque Poltergeist pourraient n’avoir l’air de rien. Mais en sapant l’algorithme de détection des objets d’une voiture sans conducteur, ces silhouettes et ces fantômes invoqués par ces attaques transforment le tout en des gens, des panneaux d’arrêt ou quoi que ce soit que l’attaquant souhaite faire voir, ou non, à un véhicule.
Pour un téléphone intelligent, les implications sont importantes, mais pour des systèmes autonomes installés sur des véhicules se déplaçant rapidement, les conséquences pourraient être particulièrement dramatiques, affirme le Pr Fu.
Par exemple, indique le chercheur, il serait possible de faire voir un panneau d’arrêt à une voiture autonome, alors qu’il n’y a rien sur la route, ce qui pourrait entraîner un arrêt subit sur une route achalandée. Une attaque Poltergeist pourrait aussi faire « disparaître » un objet, y compris une personne ou une autre voiture, poussant le véhicule à continuer d’avancer et ainsi foncer dans cet « objet » rendu invisible.
« Cela dépend de bien plus de choses, comme la configuration logicielle, mais cela commence à révéler des failles dans la muraille numérique qui nous pousse habituellement à faire confiance à l’apprentissage machine », indique le professeur.
Ce dernier espère que les ingénieurs feront disparaître ce genre de vulnérabilités. Si cela n’est pas le cas, à mesure que l’apprentissage machine et les technologies autonomes deviennent plus répandues, le Pr Fu met en garde contre la taille croissance de cette menace pour les consommateurs, les entreprises et l’ensemble du monde technologique.
« Les tenants des nouvelles technologies souhaitent que les consommateurs adoptent ces dernières, mais si ces technologies ne sont pas vraiment protégées contre ce genre de menaces liées à la cybersécurité, les gens n’auront pas confiance et n’utiliseront pas ces nouvelles technologies, juge encore le professeur. Nous verrons alors un recul, long de plusieurs décennies, où ces technologies ne seront simplement pas utilisées. »