Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.

Complexité sur la démocratie n°1 : Quelle place pour la donnée et l’IA dans les services publics et la gestion de la vie collective ?

Le contenu des discussions montre que de nombreux participants reconnaissent l’intérêt des technologies de l’IA pour accroître l’efficacité des services publics en les rendant plus accessibles (grâce à la numérisation) et plus efficaces (grâce à l’automatisation de certaines tâches, par exemple administratives). L’IA et les technologies numériques semblent également être considérées comme intéressantes pour faciliter la vie démocratique et la prise de décision politique (notamment avec l’analyse de données pour mieux comprendre les courants au sein de l’opinion publique).

Néanmoins, de nombreux participants soulignent également l’importance de ne pas reléguer les humains à l’arrière-plan et de ne pas les soumettre entièrement aux algorithmes. Il y a eu beaucoup de discussions sur l’importance de laisser les algorithmes à leur place, en tant qu’outils pour servir et coopérer avec les humains (mais pas pour les remplacer entièrement). La vie collective (démocratique) nécessite de préserver (voire d’accroître) l’empathie et les relations entre les humains. L’automatisation et la numérisation des services publics ne sont pas nécessairement, en soi, bénéfiques pour tous. Certaines populations peuvent avoir des difficultés à accéder aux outils numériques, et les algorithmes peuvent contenir des biais et automatiser certaines formes de discrimination. Il est donc important que la prise de décision (au niveau politique ou des services publics) reste sous contrôle humain.

L’automatisation et l’utilisation des données dans la conduite des affaires publiques peuvent donc être source de grands progrès, mais ne doivent pas se faire au détriment des humains (ou de certains groupes plus vulnérables). Les technologies d’IA mobilisées doivent être fiables (les espoirs trompeurs suscités par l’annonce de la numérisation peuvent miner encore plus la confiance dans les gouvernements), et présenter des niveaux élevés d’équité, de responsabilité et de transparence (pour garantir l’instauration de la confiance et l’acceptation sociale).

À un niveau plus fondamental, de nombreux participants revendiquent une sorte de droit à ne pas être réduits à leurs données numériques.

Les idées sont à retrouver dans les synthèses globales et locales téléchargeables ici

  • L’IA et les technologies numériques peuvent améliorer les services publics et les processus démocratiques, mais seulement si elles sont utilisées correctement :
    • (Global – Démocratie) Reconnaître l’impact positif (potentiel) de l’IA sur la vie humaine tout en posant les bonnes questions
    • (Global – Démocratie) Privilégier la coopération et le soutien avec l’IA au lieu du remplacement humain
  • La prise de décision doit rester sous le contrôle d’un humain :
    • (Global – Démocratie) Préserver la responsabilité humaine sur les choix éthiques/la prise de décision
    • (Global – Démocratie) Prendre en compte les personnes vulnérables et contribuer aux droits humains, sociaux et à l’inclusion politique
    • (Global – Démocratie) Préserver l’empathie, le contact humain et les relations
  • Droit de ne pas être réduit à ses données :
    • (Global – Démocratie) Reconnaître que les personnes humaines dépassent les seules dimensions mesurables
  • Risque d’ébranlement de la confiance en cas de faible fiabilité, d’injustice ou de manque de transparence et de responsabilité :
    • (Global – Démocratie) Empêcher l’IA de saper l’esprit critique, les capacités de prise de décision et l’intelligence collective des humains
Eclairages par les chercheurs :

Basé sur les apports de Brian P. Green (professeur en éthique de l’IA et directeur en éthique des technologies au Markkula Center for Applied Ethics, Université Santa Clara, USA), Mathieu Guillermin (enseignant-chercheur en éthique des technologies (UCLy (Université Catholique de Lyon), UR CONFLUENCE : Sciences et Humanités (EA 1598), France), Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie), et Yves Poullet (professeur de droit des nouvelles technologies de l’information et de communication, Université de Namur, ESPHIN, Belgique)

A.     Améliorer l’efficacité des processus démocratiques sans compromettre la singularité des personnes

L’IA peut nous aider dans de nombreux domaines. Nous voulons utiliser l’IA pour devenir plus efficaces dans les bonnes choses et en même temps utiliser l’IA pour rendre les mauvaises choses moins efficaces. L’IA peut-elle contribuer à faciliter l’aide aux personnes ? L’IA peut-elle être utilisée pour lutter contre la corruption ? Quelles sont les autres bonnes choses que l’IA peut aider à faire et quelles sont les mauvaises choses que l’IA peut aider à arrêter ? L’utilisation de l’IA pour renforcer les processus démocratiques est une idée intéressante, également susceptible de susciter des controverses, mais peut-être capable de réaliser des choses qui n’ont jamais été possibles avec la démocratie, comme la réalisation d’enquêtes auprès de populations entières et la découverte de ce que « le peuple » pense réellement de nombreuses questions politiques, avec des barres d’incertitude autour d’eux, etc. Une nouvelle forme de démocratie est peut-être possible. Cela ne signifie pas qu’elle sera meilleure, mais il peut être intéressant de réaliser une étude pilote et de l’expérimenter.

Tout effort dans ce sens ne devrait cependant jamais porter atteinte à la centralité de la personne humaine (et des autres êtres vivants). Un premier principe fondamental que nous devrions affirmer est le droit de chacun à participer à la société de l’information. Ce droit doit être progressivement élargi car de plus en plus l’utilisation des infrastructures et de certains services numériques deviennent aujourd’hui essentiels au développement de notre personnalité. Ce droit implique un droit à l’éducation, à la culture numérique et aux « services de base » offerts par les communications, les réseaux sociaux et les moteurs de recherche.

Préserver la centralité de la personne humaine signifie également respecter le principe de la supervision humaine (le contrôle par des personnes humaines du fonctionnement des systèmes d’IA). En outre, les personnes ne devraient jamais être intégralement soumises aux décisions prises par les systèmes automatisés. Les explications des décisions doivent être fournies par des personnes humaines et un droit de recours doit être garanti.

Ce respect de la centralité de la personne humaine rejoint l’un des axes forts du positionnement du Pape François sur l’IA en lien avec la résistance à ce qu’il appelle le « paradigme technocratique » : « Le respect fondamental de la dignité humaine signifie refuser que l’unicité de la personne soit identifiée par un ensemble de données. Il ne faut pas permettre aux algorithmes de déterminer comment nous comprenons les droits de l’homme, de mettre de côté les valeurs essentielles de la compassion, de la miséricorde et du pardon, ou d’éliminer la possibilité pour un individu de changer et de laisser derrière lui le passé. »[2]

B.     Les algorithmes sont-ils plus neutres que les humains ?

Dans cette optique, il est important de consolider notre acculturation collective à la technologie numérique. En effet, la notion d’algorithme peut facilement véhiculer l’idée d’une absence de biais et, l’idée d’une rationalité ou d’une objectivité accrue par rapport au jugement humain (après tout, les algorithmes sont des procédures logico-mathématiques qui ne laissent aucune place à l’arbitraire ou à la subjectivité humaine). Pourtant, cette connotation masque une réalité beaucoup plus contrastée.

L’intuition de base est valable : si un biais ou une discrimination est explicitement programmé, il « apparaîtra » dans le programme et le programmeur pourra être appelé à rendre des comptes. Cependant, cette transparence n’est pas nécessairement le cas avec les programmes d’IA obtenus par ce que l’on appelle l’apprentissage automatique. Sans vouloir rejoindre les rangs des commentateurs qui présentent ces programmes comme des boîtes noires (on peut observer les calculs effectués, rien n’est caché ou invisible par principe), il est important de comprendre qu’ils peuvent très facilement comporter des biais et conduire à des discriminations difficilement détectables en regardant directement le contenu du programme.

En effet, l’idée générale derrière l’apprentissage automatique est de tenter de contourner les limites de notre capacité à écrire explicitement des programmes pour des tâches complexes. Par exemple, nous pouvons facilement écrire un programme pour distinguer des images monochromes en noir et blanc … il suffit de quelques calculs simples sur les nombres codant la couleur des pixels de ces images … mais quels calculs pouvons-nous faire sur ces mêmes nombres pour obtenir un programme permettant de distinguer des images multiples d’objets de la vie quotidienne ? A ce stade, on peut essayer d’aller plus loin en écrivant un programme à « trous », ou plutôt à « paramètres libres », c’est-à-dire une ébauche de programme capable d’effectuer de nombreuses opérations logico-mathématiques différentes (multiplications par coefficients, additions, autres opérations plus complexes) et de les enchaîner de multiples façons. Les détails des opérations seront déterminés en fixant les paramètres à une certaine valeur. L’idée de l’apprentissage automatique est de dire qu’avec un peu de chance (et surtout beaucoup d’habileté et d’astuce), il existe un ensemble de paramètres qui produira un programme efficace pour la tâche qui résistait jusqu’à présent (par exemple, la classification d’images d’objets quotidiens). Ensuite, nous allons essayer de trouver automatiquement ce fameux jeu de paramètres (ou du moins un jeu de paramètres satisfaisant), avec un autre programme qui va tester un grand nombre de possibilités de paramétrage en les regroupant de manière plus ou moins efficace. Un moyen très efficace de guider ce programme de paramétrage automatique est de lui donner de nombreux exemples de la tâche à accomplir (c’est-à-dire de nombreux exemples d’images déjà classées en fonction de ce qu’elles représentent). Si tout se passe bien, on obtient un programme correctement paramétré qui reproduit les exemples (on dit qu’on a appris un modèle ou entraîné un algorithme… mais il s’agit toujours d’un paramétrage automatique).

C.     Les algorithmes intègrent les objectifs et les tendances (intentionnels ou non) des humains

Avec cette compréhension de base de l’apprentissage automatique, il est plus facile de voir comment un processus d’apprentissage « réussi » peut quand même conduire à un programme très problématique. Si nous guidons un paramétrage automatique avec des données biaisées au départ (reflétant une discrimination sexiste ou raciale, par exemple), un apprentissage réussi conduira à un programme qui reproduira ces biais ou discriminations.[3] De même, si nous « formons » un programme sur des bases d’exemples non représentatives (par exemple, parce que les groupes ou les minorités ne sont pas représentés dans les données), il est très possible que le programme ne fonctionne pas aussi bien pour toutes les personnes qui l’utiliseront ou y seront soumises.

D’une manière générale, il est très important de se débarrasser de l’illusion selon laquelle la technologie numérique est un simple outil neutre que les humains créent, mettent de côté et mobilisent uniquement en cas de besoin. Au contraire, la technologie numérique, comme toute technologie, est mieux conçue comme un réseau d’acteurs humains interdépendants (informaticiens, concepteurs, programmeurs, ingénieurs, utilisateurs, etc.) et de composants non humains (serveurs, mines de terres rares et de lithium, ressources en eau mobilisées pour le refroidissement des centres de données, etc.) En conséquence, le comportement et les résultats des systèmes d’IA (et plus largement des technologies numériques) résulteront toujours de (et reflèteront) ce que les humains leur ont apporté volontairement ou involontairement (programmation, exemples dans les ensembles de données d’entraînement, impacts socio-écologiques, etc.).

En particulier, l’IA reflétera, propagera et éventuellement renforcera les asymétries de pouvoir dans la société. L’IA étant une technologie centralisatrice (centralisation des données, de la puissance de calcul et du talent humain), elle prive d’autonomie ceux qui ne sont pas centralisés. En ce sens, l’IA est antidémocratique. Mais les sociétés démocratiques peuvent contrôler les influences antidémocratiques si elles sont suffisamment intelligentes pour les percevoir et déterminer comment les maintenir en « laisse » démocratique. Ceux qui contrôlent l’IA doivent être à l’écoute de ceux qui sont soumis à leur pouvoir, qu’il s’agisse d’hommes d’affaires, de fonctionnaires, d’ingénieurs, etc.

Cela signifie que la délégation de certaines tâches de gouvernance à des algorithmes (d’apprentissage automatique) et à des systèmes d’IA ne peut s’avérer bénéfique que si elle est menée avec une extrême prudence. Le point de vue d’Antoinette Rouvroy (philosophe et juriste belge) est particulièrement éclairant à cet égard :[4]

Le machine learning et, plus généralement, la capacité qu’ont les machines de nous rendre sensibles à des régularités du monde qui ne sont repérables que sur des grands nombres, a vocation au contraire à augmenter notre intelligence individuelle et collective en nous donnant accès à une “stéréo-réalité” à la fois analogique et numérique de nature à améliorer nos manières de nous gouverner et de coordonner nos comportements de façon soutenable (à condition, toutefois, de reconnaître que les algorithmes sont, tout autant que les décideurs humains, toujours “biaisés” à leur façon, même si ces “biais” n’apparaissent pas évidents à débusquer tant ils paraissent “résorbés” dans les couches cachées des réseaux de neurones). 

Dans sa critique de la « gouvernementalité algorithmique », Antoinette Rouvroy met en garde contre le risque d’une délégation trop importante et non discriminée de la prise de décision aux machines qui conduirait à remplacer nos manières humaines et vivantes d’énoncer, de vérifier et de justifier nos convictions par « un régime d’optimisation et de préemption »[5] :

Les catégories ou les formes (idéologiquement contestables, subjectivement partiales, toujours un peu “inadéquates”,…) à travers lesquelles nous sommes socialement, culturellement, politiquement ou idéologiquement prédisposés à percevoir et à évaluer les événements du monde et ses habitants sont donc remplacées par la détection de signaux en “temps réel” et une évaluation anticipative non plus de ce que “sont” les personnes ou les événements, mais, sur le mode du “crédit”, des opportunités, propensions, risques,… dont leurs formes de vie sont “porteuses”. Les modélisations algorithmiques ne visent plus la production d’aucun “savoir” mais la fourniture d’informations opérationnelles qui ne sont ni vraies ni fausses, mais qui sont suffisamment fiables pour justifier des stratégies d’action préemptive.

De plus, comme cela a déjà été évoqué, les algorithmes ne doivent pas être compris comme traitant les faits de manière neutre. Les faits eux-mêmes ne sont jamais neutres. Les humains sont toujours investis de la responsabilité d’établir les faits, d’interpréter et de donner un sens à la réalité. Il s’agit bien sûr d’une entreprise faillible qui peut être pervertie. Mais les algorithmes font moins (et pas plus) que cela[6] :

Pour les algorithmes, les seuls “faits” sont les données, rendues amnésiques de leurs conditions de production. Or les faits, ou les données, ne sont jamais que le reflet ou les effets des rapports de force, de domination, des pratiques discriminatoires ou des stigmatisations dont la réalité sociale est percluse.

[2] Message de Sa Sainteté le Pape François pour la 57ème Journée Mondiale de la Paix, 1er janvier 2024, https://www.vatican.va/content/francesco/fr/messages/peace/documents/20231208-messaggio-57giornatamondiale-pace2024.html

[3] Un exemple parmi d’autres (ici avec l’IA générative) : https://restofworld.org/2023/ai-image-stereotypes/

[4] Interview d’Antoinette Rouvroy sur le sujet de la “gouvernementalité algorithmique” (2 Décembre 2019 par Catherine De Poortere) (notre traduction): https://www.pointculture.be/articles/focus/gouvernementalite-algorithmique-3-questions-antoinette-rouvroy-et-hugues-bersini/

[5] Ibid. (notre traduction).

[6] Ibid. (notre traduction).