L’une des conséquences de l’accroissement du volume d’informations accessibles est le fait que la proportion d’entre elles qui peuvent être absorbées diminue. Une personne se retrouvera donc avec une mince tranche d’informations et d’opinions, et devient donc plus vulnérable face à la désinformation et risque de polariser davantage ses opinions. Pour en finir avec cette tendance, des experts en informatique affirment qu’il est nécessaire de développer de nouveaux algorithmes pour élargir nos horizons.
« C’est un appel à la mobilisation », affirme Boleslaw Szymanski, professeur en informatique au Rensselaer Polytechnic Institute. « Les citoyens informés forment le fondement de la démocratie, mais les grandes compagnies, qui fournissent les informations, veulent surtout vendre des produits. La façon dont ils y parviennent, sur internet, consiste à répéter ce qui semble nous intéresser. Ils ne veulent pas développer leur lectorat; ils sont intéressés à retenir continuellement l’attention des lecteurs. »
M. Szymanski et ses collègues de l’Université de l’Illinois à Urbana Champaign, de l’Université de la Californie à Los Angeles, et de l’Université de Californie à San Diego, se penchent sur ce « paradoxe de l’accès à l’information » dans une étude publiée sur le site arXiv.org.
« Vous pourriez penser que permettre à tout le monde devenir un auteur serait avantageux », mentionne M. Szymanski, qui se spécialise en réseaux sociaux et cognitifs. « Mais l’attention de l’être humain n’est pas adaptée à des centaines de millions d’auteurs. Nous ne savons pas quoi lire, et puisque nous ne pouvons pas tout lire, nous nous rabattons sur ce qui est familier, sur des travaux qui représentent nos croyances. »
Cet effet n’est pas entièrement sans précédent, soutient Tarek Abdelzaher, professeur à l’Université de l’Illinois à Urbana Champaign.
« Ce n’est pas la première fois où la possibilité d’établir de nombreuses connexions et une augmentation de l’accès a entraîné une polarisation », affirme-t-il. « Lorsque le système d’autoroutes inter-étatiques a été construit aux États-Unis, la polarisation socio-économique urbaine a augmenté. La connectivité a permis aux gens à s’auto-ségréguer dans des quartiers plus homogènes. Ce projet cherche à déterminer comment renverser les effets de la polarisation sur l’autoroute de l’information. »
L’effet est exacerbé lorsque nos propres limitations humaines sont combinées à des systèmes de curation de l’information qui visent à maximiser les clics.
Pour briser ce cycle, les auteurs affirment que les algorithmes qui fournissent un menu d’informations individualisés doivent être transformés, pour ne plus être simplement des systèmes « qui donnent aux consommateurs ce envers quoi ces derniers expriment de l’intérêt ».
Une nouvelle échelle pour l’information
Les auteurs proposent ainsi d’adapter une technique déjà employée dans d’autres domaines, qui consiste à offrir un résumé plus cours des événements lorsque ceux-ci sont plus éloignés dans le passé. Ils appellent ce modèle « une présentation adaptable du savoir ». Les algorithmes passeraient d’un « résumé extractif », qui nous offre davantage de ce que les consommateurs ont obtenu par le passé, à un « résumé abstractif », qui augmente la proportion d’informations que nous pouvons absorber, écrivent les chercheurs.
« Tant que vous équilibrez le contenu, vous pouvez offrir plus de savoir dans moins d’espace », mentionne M. Szymanski. « Bien que les lecteurs ont une capacité d’attention limitée, ils auront accès à un peu plus d’informations dans de nouveaux domaines, et ils pourront décider de s’intéresser à ces nouveaux sujets, ou garder le cap. »
Il existe peu de modèles analytiques pour mesurer la tendance en faveur de ce que les auteurs décrivent comme une « fragmentation idéologique à une époque d’accès mondial démocratisé ». Mais l’un de ces modèles, qui a retenu l’attention des auteurs, considère les individus comme des « particules dans un espace de croyances », à l’image d’un fluide, et mesure leurs positions variables en fonction des changements dans les contenus qu’ils partagent avec le temps. Le modèle « confirme l’émergence de la polarisation avec l’accroissement de la surdose d’informations ».
Plus cette polarisation s’accroît, plus nous sommes vulnérables à de la désinformation conçue pour renforcer nos propres biais, mentionnent les scientifiques. M. Szymanski et ses collègues offrent une série de solutions techniques pour réduire la désinformation, y compris une meilleure provenance pour les données et des algorithmes qui détectent la désinformation, comme des outils basés sur la logique et la constance des contenus.