Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.
Complexité sur la démocratie n°2 : L’IA au service de l’intelligence collective humaine
De nombreux participants soulignent que la politique et la prise de décision doivent rester basées sur l’interaction humaine, la réflexion collective et la délibération. Il existe un large consensus contre le gouvernement par les machines (technocratie), un large consensus sur le fait que l’IA ne doit pas remplacer les humains dans la prise de décision, en particulier dans le domaine clé des décisions politiques collectives. Au contraire, les relations humaines et l’empathie sont essentielles à la prise de décision collective et doivent être préservées et renforcées.
À cet égard, les outils numériques ont déjà offert de formidables possibilités d’échange d’informations et de débats collectifs à des échelles géographiques et à des rythmes temporels sans précédent. Avec Internet et les réseaux sociaux, le partage de l’information s’est libéralisé à l’extrême.
Néanmoins, cette libéralisation de notre paysage informationnel collectif a également engendré le problème de la surabondance d’informations disponibles et la nécessité de les éditorialiser plus efficacement. À cet égard, les discussions reflètent de sérieuses inquiétudes concernant les algorithmes de recommandation qui peuvent renforcer les préjugés et l’isolement de groupes donnés en créant des chambres d’écho et des bulles d’information. Ces processus peuvent même être exploités à des fins de manipulation volontaire. En tout état de cause, cela conduit à l’affaiblissement de notre relation collective à la vérité dans les débats politiques et sociétaux, diminuant ainsi, au lieu de les renforcer, nos capacités d’intelligence collective et notre aptitude à être des personnes authentiques dans notre vie de citoyens autonomes.
Certains participants soulignent à cet égard le problème des hypes médiatiques et la tendance à tomber dans le sensationnalisme (y compris les hypes et le sensationnalisme concernant l’IA elle-même), ce qui renforce le problème de l’éditorialisation de l’information, alors qu’un journalisme plus responsable est plus nécessaire que jamais.
En général, les participants insistent sur la nécessité d’encourager la pensée critique pour mieux naviguer dans nos paysages d’information et pour soutenir notre intelligence collective et nos capacités de prise de décision et d’élaboration de politiques. L’IA pourrait être d’une grande aide à cet égard, par exemple en contribuant à améliorer la qualité de l’information ou en soutenant la lutte contre les (deep) fakes news et leur diffusion (modération des réseaux sociaux).
Eclairages par les chercheurs :
Basé sur les apports de Brian P. Green (professeur d’éthique de l’IA et directeur de l’éthique des technologies au Markkula Center for Applied Ethics, Université Santa Clara, USA), Mathieu Guillermin (enseignant-chercheur en éthique des technologies, UCLy (Université Catholique de Lyon), UR CONFLUENCE : Sciences et Humanités (EA 1598), France), Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie) et Yves Poullet (professeur de droit des technologies de l’information et de la communication, Université de Namur, ESPHIN, Belgique)
La santé de nos sociétés démocratiques repose en partie sur la qualité du paysage informationnel et de l’intelligence collective des citoyens. Ces derniers sont profondément impactés par le numérique et l’IA.
A. L’IA, le paysage informationnel et l’intelligence collective
Étant donné l’énorme quantité de contenu disponible sur l’internet (même limité aux plateformes numériques), l’éditorialisation (au moins) partiellement automatisée de l’information est inévitable. Les outils d’IA permettant de profiler les utilisateurs et de leur recommander certains contenus sont donc des éléments clés de la technologie. Cependant, il convient de s’interroger sur les critères et les finalités de ces opérations de profilage et de recommandation. Comme l’explique Gerald Bronner[1], la libéralisation de nos paysages informationnels associée à un modèle économique basé sur la gratuité entraîne une concurrence féroce pour capter au maximum l’attention des utilisateurs. Les algorithmes de recommandation sont conçus pour mettre en avant des contenus qui amèneront les utilisateurs à rester connectés (assurant ainsi une exposition maximale à la publicité personnalisée et une collecte de données la plus efficace possible). Cette approche est très différente des systèmes de recommandation qui favorisent les contenus propices à l’épanouissement (qui peuvent souvent être moins attrayants à première vue).
Les systèmes de profilage et de recommandation peuvent notamment avoir des effets délétères (involontaires ou voulus) dans le domaine politique. Les chambres d’écho peuvent conduire à une forte polarisation de l’opinion publique. Le contenu numérique peut être adapté pour exploiter les systèmes de recommandation et les chambres d’écho. C’est notamment le cas des « deep fake news » produites de plus en plus facilement à l’aide d’outils d’IA générative. En outre, la concentration des revenus et du pouvoir économique entre les mains de grandes plateformes pourrait conduire à une concentration du pouvoir politique, notamment en termes d’influence sur l’opinion publique. Cela peut profondément affaiblir la base et les conditions fondamentales de possibilité des sociétés démocratiques, en menaçant par exemple l’organisation d’élections libres et transparentes. Les chambres d’écho et les fausses nouvelles (profondes) peuvent même être utilisées comme armes de déstabilisation politique dans les conflits géostratégiques. Les systèmes de recommandation et de profilage pourraient également être utilisés par des régimes autoritaires pour renforcer leur contrôle sur les populations. Dans le même temps, la technologie de l’IA peut aider à lutter contre ces menaces. Nous pourrions parler d’une sorte de guerre de l’IA[2], les systèmes défensifs combattant les systèmes offensifs avec le paysage de l’information comme champ de bataille. Les systèmes d’IA peuvent être entraînés à détecter des images ou des vidéos profondément truquées. Il pourrait être possible de développer des systèmes de recommandation et d’éditorialisation qui limitent la viralité des fausses nouvelles.
Globalement, nous pouvons attendre de l’IA qu’elle nous aide à améliorer notre paysage informationnel et notre intelligence collective (recommandations de contenus propices plus florissants, lutte contre les fake news, …), mais cela dépendra largement de notre capacité à encourager le développement de la bonne technologie et l’adoption des usages les plus positifs. de favoriser la littératie numérique et éthique. Il s’agit en particulier de favoriser la culture numérique et éthique pour permettre aux acteurs concernés (des développeurs aux utilisateurs) de mettre en place les conditions adéquates. On peut par exemple évoquer la nécessaire réflexion sur le modèle économique qui sous-tend les technologies numériques et les questions soulevées par le mirage de la gratuité).
Plus fondamentalement, nous pouvons également réfléchir de manière fructueuse à la signification d’expressions telles que « technologie appropriée » et « utilisations positives ». L’utilisation de l’IA pour soutenir l’intelligence ou l’épanouissement humains et non pour les étouffer est une autre version de la question de l’« équilibre » qui traverse plusieurs thèmes de discussion. Si nous voulons que l’IA aide les humains adultes à devenir des « adultes » et si nous nous opposons à l’utilisation de l’IA pour nous transformer en « nourrissons » dépendants avec l’IA comme « parent », il y a beaucoup plus à dire ici sur les types de soutien qui sont bons et ceux qui sont mauvais. Une partie de la question porte sur l’affinement de notre compréhension de l’intelligence collective ou humaine que nous attendons de l’IA.
A. Que signifie renforcer l’intelligence collective ?
Il peut s’avérer fructueux d’interroger nos idées préconçues sur ce que signifie être rationnel ou intelligent, sur la manière dont nous pouvons/devrions développer des idées qui méritent d’être appelées connaissances, qui méritent d’être tenues pour vraies. Il est certainement tentant de penser que nous gagnons en rationalité ou en intelligence en purgeant nos procédures d’inférence des jugements subjectifs, des choix, des compromis, des questions de valeur, etc. Cette vision encourage certainement l’idée que les algorithmes et les machines à apprendre ont une longueur d’avance, puisqu’ils ne reposent finalement que sur des calculs logico-mathématiques sur des données. Dotés d’une neutralité supérieure, les algorithmes pourraient ainsi aider les humains à se débarrasser de la pollution de leur subjectivité pour améliorer leur rationalité. Ce point de vue peut également conduire à accorder un grand crédit à la gouvernementalité algorithmique que nous avons évoquée dans un autre lien de complexité.[3]
Cependant, l’histoire récente et la philosophie des sciences (depuis au moins la seconde moitié du 20ème siècle) nous ont montré les limites d’une telle conception purement algorithmique ou procédurale de la rationalité et de l’intelligence. Toute démarche scientifique, même la plus expérimentale, repose inévitablement sur des jugements et des arbitrages humains (concernant le vocabulaire de base à utiliser, les grandes orientations méthodologiques, les objectifs à atteindre… mais aussi concernant des intuitions fondamentales comme l’idée que l’observation empirique ne nous trompe pas systématiquement).[4] Les programmes informatiques n’échappent pas à ce caractère indispensable du jugement humain. Même dans le cas de l’apprentissage automatique, les humains doivent arbitrer, par exemple, sur la qualité du corpus d’exemples, sur le type de programme à paramètres libres qu’on va essayer de paramétrer automatiquement, ou sur la procédure de paramétrage automatique elle-même.[5] Ces types de jugements ou d’arbitrages ne sont pas faits « arbitrairement » (dans le sens où chacun pourrait faire ce qu’il veut dans son coin). Il faut beaucoup de compétences et d’expérience, et il ne s’agira jamais seulement d’appliquer des critères ou des procédures de manière purement neutre ou objective.
Être intelligent ou rationnel, c’est bien sûr être capable d’appliquer correctement (de manière objective ou neutre) des critères, des procédures ou des algorithmes, mais c’est aussi, et peutêtre surtout, être capable de juger de la qualité des critères et des procédures, d’avoir une attitude réflexive et critique vis-à-vis de ce que l’on fait… et donc d’être capable de juger et d’arbitrer de manière faillible, de se tromper parfois, de se corriger, d’évoluer (et de s’entraider à cet égard, de collaborer de bonne volonté)… Être intelligent en ce sens est quelque chose de fondamentalement vivant, que chacun d’entre nous ne peut entreprendre qu’en s’enracinant dans son propre vécu (avec toute la richesse mais aussi les limites que cela comporte)[6] et dans une saine collaboration avec les autres.
Cette dimension collective et relationnelle de l’intelligence humaine est d’une importance capitale et nous ramène au thème de la démocratie, qui repose sur un espace intersubjectif solide pour la délibération. Je deviens plus intelligent lorsque j’interagis avec d’autres personnes, par exemple parce qu’elles utilisent des catégorisations différentes (ou utilisent les miennes différemment). La démocratie et la délibération collective sont plus que la concaténation aveugle d’opinions individuelles, la prédominance étant accordée à celles qui sont acceptées par la majorité. Il s’agit avant tout d’une manière de vivre et de s’épanouir. Les systèmes d’IA, aussi intelligents soient-ils, ne peuvent remplacer ou automatiser cette forme d’intelligence humaine collective profonde. Il ne s’agirait en aucun cas d’un soutien aux humains, mais plutôt d’une sorte d’oblitération de leur vie et de leur intelligence. La question clé que nous devrions donc nous poser est la suivante : comment la machine peut-elle nous aider à être plus intelligents ? En tant qu’acteurs de plus en plus omniprésents de notre environnement social (nous pourrions dire que nous formons des systèmes techno-sociaux ou hybrides), les technologies numériques (y compris l’IA) ne nous informent pas seulement, mais nous transforment également. Nous devons réfléchir à cette transformation et à la direction qu’elle devrait prendre. Comment la technologie numérique peut-elle contribuer à approfondir nos expériences de vie pour nous rendre plus sages et plus expérimentés ? Quels types de systèmes d’IA et de services numériques favoriseront véritablement notre intelligence collective et humaine ?
[1] Gérald Bronner (2012), Apocalypse cognitive, Presses Universitaires de France
[2]https://www.latribune.fr/opinions/tribunes/lutte-contre-la-desinformation-la-guerre-des-intelligences-artificielles-997066.html
[3] Voir : l’IA et les technologies numériques au service des services publics et de la vie démocratique
[4] Philip Kitcher, Science, Truth and Democracy, New York, NY: Oxford University Press, 2001, ISBN : 0-19-514583-6. Mathieu Guillermin, «Non-neutralité sans relativisme ? Le rôle crucial de la rationalité évaluative». Dans : Laurence Brière, Mélissa Lieutenant-Gosselin, Florence Piron (dir.), Et si la recherche scientifique ne pouvait pas être neutre ? Éditions Science et bien commun, 2019, 315-338. https://scienceetbiencommun.pressbooks.pub/neutralite/chapter/guillermin/
[5] Pour plus de détails, voir l’apport d’expertise sur le nœud de complexité L’IA et les technologies numériques au service des services publics et de la vie démocratique, en particulier la section B. Les algorithmes sont-ils plus neutres que les humains ?
[6] Voir par exemple: François Laplantine, The Life of the Senses: Introduction to a Modal Anthropology, Routledge (Sensory Studies), 2020, 176 p., ISBN 9781472531964