On vient peut-être de trouver une autre utilité à l’intelligence artificielle (IA) : détecter des civilisations extraterrestres. Ou du moins, essayer. Parce qu’il y a des quantités gigantesques de données à traiter, mais aussi parce que l’évolution de l’IA l’amène aujourd’hui à une étape où elle peut apprendre de ses erreurs.
À la base, le problème est celui des données amassées par les radiotélescopes qui écoutent le ciel, en quête d’un signal qui pourrait ne pas être naturel (ou « technosignature »). Dès 1999, un programme de « science citoyenne », SETI@Home, avait réuni des centaines de milliers de volontaires qui « donnaient » du temps d’ordinateur pour qu’un logiciel passe au crible une partie des immenses bases de données générées par ces radiotélescopes. Mais ce travail avait ses limites : la majeure partie des signaux « anormaux » détectés émanaient de nos propres technologies — satellites, téléphones cellulaires, etc. — qu’il fallait dès lors vérifier un par un.
Or, l’IA peut apprendre, par essais et erreurs, à distinguer ces signaux terrestres: c’est le principe de l’apprentissage machine (ou apprentissage automatique). Dans un article publié le 30 janvier dans la revue Nature Astronomy, le mathématicien Peter Ma, de l’Université de Toronto, décrit avec ses collègues la différence qu’un tel algorithme a fait dans leur travail: il a analysé 3 millions de « signaux d’intérêt » et en a catalogué la grande majorité comme étant d’origine terrestre. Les chercheurs ont alors analysé les 20 000 qui restaient, et ont réduit la liste à huit candidats « intrigants ».
Faux espoir: aucun des huit n’a fait entendre quoi que ce soit lorsque le radiotélescope Robert C. Byrd Green Bank, en Virginie occidentale, a été à nouveau dirigé vers eux. Mais le gain de temps était énorme et les chercheurs proposent de réutiliser leur méthode avec les autres bases de données du même genre.
En théorie, il serait aussi possible de programmer un tel algorithme pour repasser dans ces bases de données à la recherche d’un signal différent de celui que l’on cherchait traditionnellement — une balise automatique, par exemple. Mais ultimement, il faudrait un humain pour passer au crible ce que l’IA aurait sélectionné : dégager un « signal » du « bruit » est une chose, l’interpréter en est une autre.