Transparence, respect des codes d’éthique, traçabilité et séparation: après plusieurs mois de travail et de réflexion, un groupe d’experts réunis par Reporters sans frontières (RSF) vient de publier une charte visant à faciliter la coexistence des médias et des outils d’intelligence artificielle, à une époque où des outils comme ChatGPT et consorts ébranlent certaines fondations du métier.
Intitulé Charte de Paris sur l’IA et le journalisme, le document en question, fort de 10 points, dit « reconnaître les implications transformatrices de l’intelligence artificielle pour l’humanité ». Les signataires – RSF et 16 autres organisations, dont la Canadian Journalism Foundation, diverses organisations européennes, nord-américaines et asiatiques, ainsi que des regroupements de journalistes d’enquête, comme le Global Investigative Journalism Network – disent « prôner une coopération mondiale pour que l’IA respecte les droits humains, la paix et la démocratie », en plus de « servir nos aspirations et nos valeurs communes ».
Toujours selon les signataires de la charte, « les systèmes d’IA ont le potentiel, selon leur conception, leur gouvernance et leurs usages, de révolutionner l’espace global de l’information ». Mais cela, disent-ils, doit se faire de manière transparente, en respectant des codes d’éthique clairs. Notamment, laisse-t-on entendre, afin de réduire les risques de désinformation, qui alimente les théories de la conspiration et la colère d’une certaine frange de la population.
Pour atteindre ce but, donc, les signataires de la charte proposent 10 points à respecter: tout d’abord, disent-ils, l’éthique journalistique doit demeurer au coeur de l’utilisation de la technologie par les reporters et leurs collègues.
« L’utilisation et le développement des systèmes d’IA dans le journalisme doivent respecter les valeurs fondatrices
de l’éthique journalistique, parmi lesquelles la véracité, l’exactitude, l’équité, l’impartialité, l’indépendance, la non nuisance, la non-discrimination, la responsabilité, le respect de la vie privée et la confidentialité des sources », lit-on dans le document.
Ces mêmes médias sont aussi appelés à « donner la priorité à l’humain », notamment en s’assurant que « l’utilisation des systèmes d’IA soit une décision délibérée et bien informée prise par des humains ». On invite aussi les équipes éditoriales à « définir clairement les objectifs, la portée et les conditions d’usage de chaque système d’IA », en plus de « conserver la capacité de les désactiver à tout moment ».
Parmi les autres points de cette charte, on retrouve aussi la notion que les médias demeurent responsables du contenu qu’ils publient, que celui ait été produit par l’IA ou non. Dans la même perspective, les médias se doivent d’être « transparents dans leur utilisation des systèmes d’IA », avec de la divulgation proactive, en plus de la « tenue d’un registre public des systèmes d’IA utilisés, avec objectifs détaillés, champs d’application et conditions d’utilisations », juge-t-on.
Relation avec les compagnies d’outils numériques
Là où la chose pourrait être plus compliquée, c’est lorsque la charte affirme que « les journalistes, les médias et les groupes de soutien au journalisme prennent par à la gouvernance de l’IA », c’est-à-dire en permettant au monde médiatique d’être partie prenante des discussions nationales et internationales pour encadrer les outils d’IA.
« Ils doivent veiller à ce que la gouvernance de l’IA respecte les valeurs démocratiques, et à ce que la diversité des peuples et des cultures soit réflétée dans le développement de l’IA », est-il écrit. Un noble objectif, certainement, mais qui tranche clairement avec l’état actuel des choses, où la majorité des outils d’IA sont développés à l’interne par des entreprises qui ne dévoilent que peu ou pas du tout leur code source, pas plus qu’elles ne donnent accès aux informations qui ont servi à « entraîner » leurs modèles informatiques.
Rien n’indique que ces compagnies, qui voient dans l’IA un marché particulièrement lucratif, seront enclines à faire preuve de plus de transparence. Et rien ne garantit que les gouvernements seront intéressés à s’unir pour faire la lumière dans ce domaine particulièrement complexe.
« L’intelligence artificielle pourrait rendre des services éminents à l’humanité, mais elle a de manière évidente le potentiel d’amplifier la manipulation des esprits dans des proportions inédites dans l’histoire. La Charte de Paris est la première référence éthique internationale sur l’IA et le journalisme. Les preuves factuelles, la distinction claire entre les contenus authentiques et synthétiques, l’indépendance éditoriale et la responsabilité humaine seront les premiers gages pour le droit à l’information à l’ère de l’IA », a déclaré par voie de communiqué Christophe Deloire, secrétaire général de RSF.
« Plus que jamais, le journalisme nécessite un socle éthique solide et largement reconnu. Avec nos partenaires, nous appelons les journalistes, médias et rédactions du monde entier à s’approprier ces principes, à les proclamer, et à les décliner dans leurs pratiques. »