Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.
Complexité sur la démocratie n°6 : Le défi démocratique de la régulation
Un consensus clair se dégage sur le fait que les nouvelles technologies puissantes telles que l’IA nécessitent une gouvernance et une réglementation. Il est essentiel d’encourager une utilisation raisonnée de la technologie de l’IA (y compris la vidéosurveillance, les algorithmes, le big data, les médias sociaux), toujours sous contrôle humain. Nous devons mettre en œuvre des outils normatifs et des droits juridiques actualisés pour les citoyens (ce qui est une préoccupation multidisciplinaire) ; développer et mettre en œuvre des codes éthiques pour les groupes professionnels (par exemple, les développeurs web) ; porter une attention particulière aux groupes vulnérables (en empêchant l’automatisation de la discrimination, par exemple).
Cependant, une partie des échanges souligne également que la réglementation soulève de nombreuses questions aiguës, ce qui en fait un défi très difficile à relever. On peut par exemple mentionner le sujet de la modération des médias sociaux : qui est le bon acteur ? Les technologies de l’IA peuvent y contribuer, mais quelle est la place des humains ? Un tel sujet soulève des questions fondamentales sur la vérité, la démocratie et la légitimité. Plus généralement, la régulation de l’IA est un défi pour plusieurs raisons : le rythme du développement technologique, l’obscurcissement des modèles de responsabilité (avec les technologies numériques en général et plus spécifiquement avec l’apprentissage automatique), l’accès souvent « facile » à des outils puissants (dans la main d’acteurs mal intentionnés, une technologie telle que la reconnaissance d’images / faciale peut devenir extrêmement nuisible), l’échelle mondiale de la recherche et du développement (avec la diversité des systèmes de valeurs à travers le monde ainsi que des constellations de conflits d’intérêts), …
Pour relever le défi de la réglementation de l’IA, de nombreux participants insistent sur l’importance de la culture numérique et de la pensée critique qui devraient être encouragées.
Eclairages par les chercheurs :
A. Du point de vue de l’avocat
À la lumière de l’ampleur du défi que représente la réglementation de l’IA, nous pourrions rappeler certains principes de base du droit, notamment l’importance de l’État de droit, en tant que principe fondamental pour garantir une démocratie vivante. Le principe de l’État de droit signifie que pour limiter nos libertés ou pour prévenir le risque de le faire, il est nécessaire de passer par des mesures législatives, exprimées clairement et de manière exhaustive, publiées, ayant un contenu strictement proportionné à leur objectif et acceptables dans une société démocratique.
En ce qui concerne le contenu de la réglementation sur l’IA, il convient de renforcer la transparence sur le fonctionnement et les finalités poursuivies par le responsable du traitement, ainsi que le droit de contester l’utilisation de ses données (notamment pour protéger l’autonomie des personnes). Dans le même ordre d’idée, il faut affirmer la responsabilité des développeurs d’IA. Ce principe de responsabilité conduit à leur imposer une évaluation pluridisciplinaire et multipartite des applications qu’ils développent et des risques qui y sont liés.
Par ailleurs, il est de la responsabilité des Etats de mettre en place un forum où la société pourrait discuter ouvertement des aspects éthiques de certaines grandes innovations publiques.
B. Discussions sociétales ouvertes sur les questions éthiques
Basé sur les apports de Brian P. Green (professeur en éthique de l’IA et directeur d’éthique des technologies au Markkula Center for Applied Ethics, Université de Santa Clara, USA) et Mathieu Guillermin (enseignant-chercheur en éthique des technologies, UCLy (Université Catholique de Lyon), CONFLUENCE: Sciences et Humanités (EA1598), France)
Ce constat fait écho à la question de savoir à quel niveau doit se situer l’intervention visant à « protéger » les personnes de l’IA. Devons-nous compter sur les individus pour qu’ils soient suffisamment éduqués pour se protéger eux-mêmes ? Ou sur les hommes politiques pour qu’ils soient suffisamment éduqués pour protéger les citoyens ? Ou sur les entreprises pour qu’elles en sachent assez ? Ou sur les ingénieurs qui fabriquent le produit ? Tous les acteurs concernés doivent avoir leur mot à dire dans leur propre domaine d’action. Aucun groupe ne peut être responsable de tout, car le problème de la maîtrise et du contrôle de l’IA est trop complexe et nécessite de nombreux points d’intervention pour l’orienter vers le bien.
Certaines choses devraient être automatisées et d’autres non ; comment savoir lesquelles, et comment justifier cette distinction ? Nous avons besoin d’un « pourquoi » pour déterminer ce qui est légitimement automatisable et ce qui ne l’est pas. L’exploration collective de cette question du « pourquoi », la question de nos besoins, peut s’avérer extrêmement délicate. À mesure que notre civilisation s’accélère, il semblerait qu’il soit impossible de s’opposer à la force de la délégation par l’automatisation de l’IA, car les humains ne peuvent tout simplement pas être assez rapides. Nous le constatons déjà dans les domaines du trading à haute fréquence et de la cyberattaque et de la cyberdéfense. Lorsque nous nous demandons : qu’est-ce qui peut être délégué et qu’est-ce qui ne peut pas l’être ? il ne s’agit pas seulement de savoir ce qui est techniquement faisable. Il s’agit aussi de se demander POURQUOI ?
Cette question du « pourquoi » nous pousse dans le domaine de la réflexion évaluative, des valeurs et des intérêts. Comme l’ont mentionné certains participants aux discussions, cette réflexion peut s’avérer difficile car les valeurs et les intérêts peuvent être très divergents. Cependant, il peut être intéressant d’adopter une approche nuancée. S’il est clair qu’il peut y avoir de forts désaccords sur les questions morales et éthiques, cela ne signifie pas nécessairement qu’un terrain d’entente est impossible. En première approximation, il semble qu’il y ait des valeurs fondamentales sur lesquelles s’appuyer. Certains auteurs suggèrent cinq valeurs qui pourraient être universelles : survivre, se reproduire, vivre en société, éduquer les jeunes, rechercher la vérité. Ces valeurs pourraient être qualifiées d’objectives car elles sont raisonnables pour une grande variété de personnes parce qu’elles existent par la logique, en l’occurrence la preuve par la contradiction / reductio ad absurdum.
En outre, l’existence de forts désaccords ne signifie pas en soi qu’il y a de fortes divergences entre les valeurs défendues par les gens. Très souvent, les valeurs sont partagées mais peuvent entrer en tension et les gens sont alors en désaccord sur la priorité à donner à certaines par rapport à d’autres (sécurité contre protection de la vie privée, liberté individuelle contre bien commun, etc.) Cela signifie donc que nous devrions toujours réfléchir à nos désaccords et à ce sur quoi ils portent (il peut y avoir plus d’accords que nous ne le pensons à première vue, plus de terrain pour des divergences constructives).
Cela nous permet de souligner l’importance de renforcer les capacités de tous les acteurs à participer à ces discussions sociétales ouvertes. Comme nous venons de le voir, cela exige de favoriser la pensée critique. Il est également nécessaire de cultiver la culture technologique et numérique afin de garantir des discussions aussi informées que possible.