Elle serait excellente pour résumer des preuves scientifiques à l’intention des politiciens. Mais il serait délicat de la laisser aller sans supervision humaine. Pour ou contre une IA comme conseillère scientifique des premiers ministres et des présidents?
On a abondamment discuté de la possibilité que l’IA aide à diagnostiquer des maladies ou à découvrir des exoplanètes, avec sa capacité à traiter en un temps record d’immenses bases de données. Mais la politique scientifique est un secteur qui avait échappé aux futurologues.
La revue Nature publie justement cette semaine une série d’articles sur les différentes façons par lesquelles l’IA pourrait changer la façon dont se construit la science. En fait, des domaines où elle apporte d’ores et déjà des changements: la recherche sur les protéines, les prévisions météorologiques, qui ont pour caractéristique d’être appuyés sur un immense ensemble de données.
Or, dans un commentaire qui accompagne cette série d’articles, neuf auteurs de divers horizons rappellent qu’une des tâches des conseillers scientifiques est justement de plonger dans d’immenses ensembles de données pour en faire un tri. « Des batteries jusqu’à la résistance aux antibiotiques en passant par l’exploitation minière en eaux profondes, les conseillers scientifiques doivent habilement naviguer dans un vaste ensemble d’informations. Ils doivent fouiller dans des millions d’études scientifiques publiées chaque année, tout en prenant en considération les rapports de groupes de pression, de l’industrie ou d’associations scientifiques. Les conseillers doivent travailler rapidement. Produire des résumés politiques dans un délai de semaines, de jours ou même d’heures, est une tâche intimidante. Et les pressions des gouvernements pour produire et utiliser de telles informations sont croissantes. »
Utile, mais…
À l’évidence, un robot pourrait donc s’avérer utile. Mais puisqu’il s’agirait d’aider à prendre des décisions politiques, des enjeux délicats s’ajoutent: les « conseils » de l’IA pourraient-ils être influencés par les intentions de ceux qui l’ont programmée? Pourraient-ils carrément être contaminés par de la désinformation « présentée avec une apparence scientifique »? Éviter une telle « contamination » des données —par un trop grand nombre d’études prépubliées, par exemple, qui contiendraient toutes le même biais— « pourrait nécessiter une plus grande surveillance et une compréhension des processus » par lesquels l’IA est « entraînée » à utiliser les données.
Sous peu, disent ces neuf professeurs de quatre pays, une nouvelle génération d’agents conversationnels inspirés par ChatGPT, pourrait être mise à la tâche. Mais il faudra que les institutions scientifiques « créent des lignes directrices et considèrent avec soin la conception et l’usage responsable de cette technologie émergente ».
Ils voient deux domaines où ce type d’IA pourrait servir: accélérer l’écriture de synthèses de la littérature scientifique et préparer le premier brouillon d’une futur document d’information. Dans le premier cas, ça ne s’applique pas qu’aux conseillers scientifiques. Beaucoup de chercheurs qui pondent des « revues systématiques » — qui sont de telles synthèses de la littérature— pourraient confier la première phase du travail à un tel robot, c’est-à-dire résumer de vastes groupes de textes. Par contre, dès qu’on s’écarte du résumé général, et qu’on doit par exemple pointer ce que sont les domaines émergents de recherche, une intervention humaine s’avère indispensable. À plus forte raison, s’il faut tirer une conclusion ou une interprétation.
Un autre bémol concerne le deuxième domaine, la préparation d’un futur document d’information: l’IA est incapable d’évaluer la crédibilité d’une source (on en a eu plusieurs exemples dans la dernière année). Même lorsqu’on croit avoir des critères, comme le facteur d’impact d’une publication ou le nombre de citations d’une recherche, le poids à accorder à chacun de ces critères diffère d’un sujet à l’autre. Il faudra donc s’entendre sur des normes pour définir la « qualité de la recherche » avant qu’une telle tâche puisse être assumée par l’IA — un obstacle « significatif », reconnaissent pudiquement les neuf auteurs.