Oubliez la Matrice, Skynet et autres intelligences artificielles meurtrières: selon des chercheurs de l’Université de Bath et de l’Université technique de Darmstadt, ChatGPT et les autres modèles langagiers ne représentent pas une menace existentielle envers l’humanité.
Pourquoi? Tout simplement, affirment les auteurs de cette nouvelle étude, parce que ces systèmes d’intelligence artificielle ne peuvent pas apprendre par eux-mêmes, ou encore acquérir de nouvelles capacités.
Au dire des chercheurs, en fait, ces systèmes « possèdent une capacité superficielle à suivre les instructions » et tirent aisément leur épingle du jeu losqu’il est question du langage, mais ne peuvent donc pas apprendre à maîtriser de nouvelles capacités sans en recevoir d’abord l’instruction spécifique.
Cela veut dire, indique-t-on dans l’étude, que ces IA demeurent contrôlables, prévisibles et sécuritaires.
Pour les auteurs, donc, les modèles langagiers, qui absorbent des bases de données toujours plus vastent, « peuvent continuer à être déployés sans craintes du côté de la sécurité, même si cette technologie peut toujours être utilisée à mauvais escient ».
Et les chercheurs vont même plus loin, en affirmant qu’à force de croître, ces modèles langagiers permettront de générer des échanges plus sophistiqués et deviendront encore meilleurs lorsque vient le temps de suivre des commandes spécifiques et détaillées, mais qu’il est « hautement improbable » qu’ils acquièrent des capacités de raisonnement avancées.
« L’idée répandue voulant que ce genre d’IA est une menace pour l’humanité empêche l’adoption généralisée et le développement de ces technologies, en plus d’éloigner notre attention des véritables problèmes qui méritent notre attention », affirme le Dr Harish Tayyar Madabushi, l’un des coauteurs des travaux.
Avec ses collègues, il a mené une série d’expériences pour déterminer la capacité des systèmes langagiers à accomplir des tâches entièrement nouvelles – ce que l’on appelle les habiletés émergentes.
À titre d’exemple, ces modèles peuvent répondre à des questions concernant des situations sociales, sans jamais avoir été explicitement entraînés ou programmés pour ce faire. Si de précédentes études laissaient entendre que cela découlait du fait que les modèles « connaissaient » des choses à propos de telles situations sociales, les chercheurs ont plutôt démontré que cela est imputable au fait que les modèles utilisent une habileté bien connue, soit la possibilité d’accomplir des tâches en s’appuyant sur un petit nombre d’exemples, appelés « apprentissage en contexte ».
Via des milliers de tentatives, l’équipe dit avoir démontré qu’une combinaison de cet apprentissage en contexte, de mémoire et d’habiletés linguistiques peut expliquer les talents et les limitations des modèles langagiers.
Comme le rappelle le Dr Tayyar Madabushi, « la crainte s’articule autour de l’idée qu’à force de grossir, les modèles seront en mesure de résoudre des problèmes que nous ne pouvons pas encore prédire, ce qui représente une menace au cas où les modèles d’IA puissent acquérir des capacités inquiétantes, comme le fait de raisonner et de planifier par soi-même ».
« Cela a provoqué beaucoup de discussions, mais notre étude démontre que la menace voulant que ces modèles langagiers accomplissent quelque chose de complètement inattendu, d’innovateur et de potentiellement dangereux n’est pas valide », a ajouté le chercheur.
« S’il est important de s’attaquer au potentiel de dérive existant, comme la création de fausses nouvelles et l’augmentation du risque de fraude, il serait prématuré de faire adopter des lois s’appuyant sur des menaces existentielles présumées », a encore déclaré le Dr Tayyar Madabushi.
Ce dernier estime que se fier sur les modèles langagiers pour accomplir des raisonnements complexes sans instructions spécifiques « est probablement une erreur », et que mieux vaut offrir le plus de détails possible lorsque vient le temps d’envoyer une commande à un tel système d’IA.