Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.

Complexité transversale n°1 : Quel lien, quelles interactions avec les machines ?

Certains participants soulignent qu’avec les progrès de l’IA, nous aurons tendance à développer des machines (robots, automates conversationnels) capables d’imiter ou de simuler des comportements et des capacités propres aux humains et aux êtres vivants, tels que l’empathie, l’assertivité, la vie émotionnelle et affective. Par conséquent, il sera de plus en plus tentant de s’attacher émotionnellement à ce type de machines capables de simuler des capacités relationnelles (comme les compagnons ou les assistants artificiels, ou encore les robots de soins personnels).

Ces discussions soulèvent également la question des droits à accorder aux robots avancés ou aux systèmes intelligents.

En même temps, de nombreuses contributions aux débats soulignent l’importance de ne pas perdre de vue la spécificité du vivant et de l’humain par rapport aux machines. Les machines ne sont pas conscientes, ne ressentent pas d’émotions, ne peuvent pas être sages, créatives, critiques ou autonomes, ne sont pas capables de spiritualité au sens habituel de ces termes, qui implique un enracinement dans l’expérience vécue, dans un corps biologique. Au mieux, ils peuvent simuler des comportements convaincants dans ces registres (notamment par la conversation), comportements que des êtres humains ou des êtres vivants auraient dans des circonstances données.

De ce point de vue, de nombreux participants s’accordent à dire que l’IA ne peut pas être un sujet de droit. La question est largement qualifiée de spéculative ou de science-fictionnelle, sans pour autant être inintéressante.

Ainsi, il est assez largement exprimé dans les discussions qu’il faut résister à la tentation (de plus en plus réelle et puissante) de percevoir certains robots ou systèmes d’IA comme de véritables personnes et d’essayer de se connecter avec eux affectivement (comme on le ferait avec un humain, ou même avec un autre être vivant). Nous devons résister à la tentation de substituer des interactions avec des machines à de véritables relations humaines.

Les idées sont à retrouver dans les synthèses globales et locales téléchargeables ici.

  • Les systèmes d’IA et les machines ne peuvent pas être confondus avec des êtres humains et ne peuvent donc pas être dotés de droits similaires à ceux des êtres humains.
    • (Global – Démocratie) Préserver la spécificité de l’être humain (par rapport à la machine)
    • (France – Démocratie) Indésirable : La reconnaissance d’une personnalité juridique pour les IA n’est pas souhaitable
    • (France – Démocratie) Souhaitable : Les algorithmes restent des outils (1 extract)
    • (USA – Démocratie) Les machines sont au service de l’humanité, c’est pourquoi l’humanité doit garder un contrôle approprié sur l’IA.
    • (France – Démocratie) La question complexe du statut juridique de l’intelligence artificielle est largement débattue
  • Les systèmes d’IA ne doivent pas remplacer les relations humaines
    • (Global – Transversal) Préserver l’empathie, le contact humain et les relations humaines
  • Les systèmes d’IA auront de plus en plus de comportements qui permettent ou encouragent la tendance des humains à vouloir se connecter et s’attacher à eux.
    • (Portugal – Démocratie) L’homme et la machine peuvent se rapprocher
    • (Portugal – Démocratie) L’intelligence artificielle tendra à imiter les capacités humaines
Comment recevez-vous ces éléments de synthèse ? Font-ils échos à vos réflexions, à votre vécu ?
Eclairages par les chercheurs :

Mathieu Guillermin (enseignant-chercheur en éthique des nouvelles technologies (UCLy (Université Catholique de Lyon), UR CONFLUENCE : Sciences et Humanités (EA 1598), Lyon, France), Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie (Université de Namur, ESPHIN, Belgique) et Brian P. Green (Professeur en éthique de l’IA et directeur de l’éthique des technologies au Markkula Center for Applied Ethics (Université Santa Clara, USA)

Il est plus que légitime de s’émerveiller des récents développements des technologies de l’IA, qui ont permis à des programmes tels que chat-GPT et d’autres grands modèles de langage d’entretenir une conversation convaincante avec les humains. Toutefois, ces performances peuvent avoir un impact profond sur les relations humaines et les interactions entre les hommes et les machines.

Comme indiqué dans de nombreux domaines thématiques du projet NHNAI, les relations sont d’une grande importance dans la vie humaine et leur protection ainsi que leur amélioration devraient être une préoccupation sérieuse de tous ceux qui travaillent avec les systèmes d’IA et leurs effets. En général, les systèmes d’IA devraient aider et non remplacer les humains – mais surtout dans les relations. En tant que créatures sociales, nous sommes théologiquement faits à l’image d’un Dieu trinitaire relationnel qui est l’amour lui-même, mais il s’agit également d’un point philosophique et empirique, et logiquement nécessaire. L’humanité ne peut pas vivre seule, et tout ce qui érode nos relations est risqué et dangereux. L’IA doit être utilisée pour renforcer les relations humaines, qu’elles soient familiales, amicales, économiques, politiques ou autres. L’IA qui porte atteinte aux relations s’attaque à un élément essentiel de l’humanité.

A.    Avec l’IA, on ne crée pas radicalement une nouvelle forme d’entité

Néanmoins, cet émerveillement doit être motivé par de bonnes raisons. Après tout, ces succès n’ont rien à voir avec la création de nouvelles formes de vie, de nouveaux êtres intelligents, que nous appellerions les IA. Il est tout aussi vertigineux, sinon plus, de constater que l’homme a pu construire des machines, des artefacts capables de simuler ou de reproduire des comportements intelligents (des comportements convaincants qui auraient pu venir de l’homme), sans aucune vie, sans aucun vécu, sans aucune conscience, mais avec de purs mécanismes (des mécanismes inertes, mais d’une complexité et d’une miniaturisation éblouissantes).

En plus de démystifier l’apprentissage automatique (y compris l’apprentissage profond, basé sur les réseaux de neurones artificiels), il est également crucial de se rappeler que tous les programmes (du plus traditionnel et conventionnel au programme d’IA le plus avancé produit par l’apprentissage automatique) fonctionnent sur des ordinateurs ou des machines similaires qui ne sont pas (ou sont moins) programmables. Ce que fait une machine comme un ordinateur, c’est transformer des configurations matérielles auxquelles les humains ont associé des significations précises (une série d’aimants sur un disque dur symbolise une séquence de 0 et de 1, elle-même associée, par exemple, à une séquence de mots ou à une séquence de nombres codant les couleurs des pixels d’une image) en de nouvelles configurations matérielles associées à d’autres significations (par exemple, une nouvelle série de mots, une image modifiée ou une description de l’image). Ce type de machine, conçue pour transformer des configurations matérielles en d’autres en fonction de ce que ces configurations signifient, n’est pas nouveau. L’ordinateur peut être considéré comme l’aboutissement d’une longue évolution des techniques et technologies de l’information, qui remonte probablement aux débuts de l’écriture. Dans cette perspective, le boulier peut être considéré comme un ancêtre de l’ordinateur (transformation mécanique de configurations symbolisant, par exemple, des nombres à additionner, en configurations symbolisant le résultat de l’addition).

Il n’y a donc pas à proprement parler de sens, d’images, de mots ou de nombres dans les ordinateurs, encore moins d’émotions ou de conscience. Ce sont cependant de fantastiques machines qui manipulent mécaniquement (avec une efficacité et une précision incroyables) d’innombrables configurations matérielles auxquelles nous, les humains, attachons un sens. Une série d’aimants sur le disque dur d’un ordinateur fera en sorte que différents pixels de l’écran émettent des couleurs différentes, qui seront pour nous plus que de minuscules sources de lumière colorée, qui deviendront des textes nous informant sur des sentiments, des images de visages ressentant telle ou telle émotion. Mais l’ordinateur ne traite l’information qu’en manipulant mécaniquement et automatiquement des aimants (ou d’autres configurations matérielles). Il est donc d’autant plus impressionnant de voir ce que nous pouvons faire faire aux ordinateurs avec des programmes dérivés des techniques d’apprentissage automatique.

B.     Mais l’IA, comme toute technologie, façonne ce que nous sommes et comment nous vivons

Reconnaître le pouvoir des ordinateurs ne devrait jamais être fait sans comprendre clairement que les ordinateurs et les systèmes d’IA ne sont pas des entités qui émergent en dehors de nous. Comme nous venons de le voir, ils n’ont rien à voir avec les IA de science-fiction qui deviennent conscientes et autonomes au sens fort. Cependant, il y a un autre sens crucial dans lequel les systèmes d’IA ne sont pas à part : ce ne sont pas de simples outils que nous pourrions mobiliser uniquement lorsque nous en avons besoin et qui, sinon, resteraient tranquillement et de manière neutre sur l’étagère. La technologie nous transforme profondément. Elle façonne et médiatise nos façons d’être et de vivre ensemble.

La vision sociologique de Bruno Latour peut nous aider à saisir ce point important. Pour lui, le « social » est une composition associative[1]. Une situation est vue comme un « collectif hybride » composé d’interactants humains et non humains. Ni objets, ni sujets, ces interactants sont eux-mêmes envisagés comme des réseaux relationnels. Une application numérique, par exemple, ne peut être envisagée sans ses concepteurs, ni le personnel de maintenance, ni l’interface utilisateur, ni bien sûr sans ses utilisateurs présumés et les usages auxquels ils sont destinés. Mais les utilisateurs peuvent très bien détourner cet usage pour l’adapter à leur propre contexte expérientiel. Une IA comme ChatGPT est un composite formé par tous les auteurs humains qui ont généré les textes qui ont entraîné le modèle, plus tous les concepteurs du modèle, plus tous les agents qui filtrent les productions de l’IA, plus tous les utilisateurs et les contextes d’utilisation prévus et imprévisibles.

C.      Les capacités d’imitation des systèmes d’IA changent profondément la donne

De grands modèles de langage comme chat-GPT nous parlent de manière convaincante (avec un contenu affectif ou émotionnel crédible). Nous pouvons également essayer d’analyser automatiquement les émotions et les sentiments dans ce que les gens disent, ou dans les vidéos capturant les expressions corporelles ou faciales. Ces nouvelles technologies ouvrent la possibilité d’interactions toujours plus riches et plus intéressantes avec les machines, avec des modalités qui reproduisent ou simulent un nombre croissant de caractéristiques des interactions et des relations entre les êtres vivants en général, et entre les humains en particulier. Pour bien envisager les conséquences et les enjeux de ces nouvelles possibilités d’interaction avec les machines, plusieurs points méritent d’être soulignés[2].

a.     L’extrême utilité de l’IA et les problèmes d’uniformisation

Avant d’examiner les enjeux de l’imitation de l’homme (et de la vie) en tant que telle, il est important de souligner que ces capacités d’imitation transforment profondément la manière dont nous interagissons avec les machines. Cette interaction peut être rendue extrêmement fluide et facile, en comparaison avec les compétences numériques qui sont normalement requises pour utiliser un ordinateur. Désormais, de plus en plus de tâches peuvent être lancées et pilotées par un contrôle vocal en langage naturel. Cela signifie également que les systèmes numériques deviendront sans doute encore plus omniprésents qu’ils ne le sont déjà.

Dans cette perspective, un premier problème que nous devons contourner pour maximiser les résultats positifs des technologies de l’IA n’est pas celui de l’apparence humaine d’un objet, ou de l’objectivation/datafication d’un humain. En se basant sur les idées de Latour (les humains et leur technologie forment un réseau complexe d’interacteurs, dont les humains ne peuvent être isolés), il est important d’éviter que les systèmes d’IA conduisent à une uniformisation de la vie des humains et deviennent un obstacle à leur créativité. Des formes standardisées de médiation entre les systèmes d’IA et les humains qui interagissent avec eux risquent d’écraser et de menacer la possibilité d’apprendre et d’innover dans des situations locales concrètes. L’apprentissage local résultant d’interactions incontrôlées avec l’environnement est tout aussi crucial que les systèmes normalisés d’enregistrement et de traitement des données. C’est ce qu’Amitav Ghosh a formulé[3], par exemple, à propos du problème du changement climatique :

Pour ceux qui observent attentivement l’environnement dans lequel ils vivent, les indices d’un changement à long terme proviennent parfois de sources inattendues. (…) Les personnes qui prêtent le plus d’attention aux changements écologiques sont le plus souvent en marge ; les relations qu’elles entretiennent avec le sol, la forêt ou l’eau sont à peine médiatisées par la technologie.

b.     Ne jamais cacher qui est qui (ou quoi)[4]

Pour revenir à la question de l’apparence humaine de la machine en tant que telle, et contrairement à ce que les approches behavioristes pourraient suggérer (en lien avec le fameux test de Turing), il semble d’abord important de maintenir une distinction entre simuler un comportement résultant d’une expérience vécue et avoir ce même comportement tout en vivant cette expérience vécue. Que dire, par exemple, d’une machine qui exprime des paroles de compassion à une personne âgée dans la perspective de sa fin de vie ? Cela ne peut être confondu avec les mêmes paroles prononcées par une personne capable de faire l’expérience de sa finitude, de ressentir et de compatir dans un vécu partagé. Si l’on comprend bien la technologie de l’IA, ce que nous avons avec une machine émettant des paroles de sympathie ne doit pas être décrit comme une machine ayant de tels sentiments. Il est plutôt intéressant d’examiner quel type de volonté, de sentiments et d’intentions humaines sont réellement impliqués. L’analyse de Latour est très éclairante dans cette perspective, car elle conduit à considérer les systèmes d’IA comme faisant partie d’un réseau d’interacteurs humains et non-humains, dans ce cas organisé pour émettre automatiquement des mots de sympathie. L’intention humaine existe ici, mais elle semble extrêmement générale, lointaine et abstraite. C’est celle des développeurs et des autres personnes impliquées dans la décision de construire ce système. Ces sentiments, cette volonté et ces intentions sont radicalement différents de ceux d’une personne exprimant sa sympathie à une personne avec laquelle elle est en contact direct. La valeur du mot prononcé ne peut même pas être comparée.

c.      Le problème de traiter les machines à l’apparence humaine comme des machines

Deuxièmement, il est également important de dire que le simple fait de reconnaître que les machines ne sont que des machines, et de les traiter comme de purs outils, n’est pas nécessairement la réponse à tous les problèmes. En effet, dans cette perspective et selon toute vraisemblance, les compagnons artificiels (comme dans le film Her de Spike Jonze en 2013) seront construits et programmés pour trouver leur place sur un marché et donc se comporter d’une manière qui satisfasse l’utilisateur (par exemple, qui voudrait d’un compagnon artificiel qui pourrait trahir ou quitter son humain ?) Nous serons donc confrontés à des systèmes perçus comme des objets, des possessions, mais qui tireront tout leur attrait spécifique de leur capacité à ressembler à une personne authentique, à manifester une apparence d’humanité, de personnalité ou de vie. L’accoutumance progressive à la combinaison de ces deux caractéristiques pourrait s’avérer extrêmement destructrice pour l’humanité. Cela reviendrait à développer progressivement une capacité à s’accommoder de l’esclavage : « Là où il n’y a pas d’« autre », mais seulement l’apparence d’un autre à notre disposition, en même temps que l’absence de l’exigence qui serait exercée sur notre propre don de soi par la confrontation avec un véritable autre, nous risquons d’être conditionnés dans un dangereux talent d’exploitation. »[5]

Dans le même ordre d’idées, cette combinaison du statut d’objet ou d’outil et de l’apparence personnelle peut également nous amener à nous habituer à une attitude de consommateur à l’égard du comportement d’autrui, réduisant progressivement notre tolérance à l’égard du comportement d’autrui qui nous dérangerait. Il n’est pas impossible que la présence constante de compagnons artificiels, dont les comportements dérangeants seront perçus comme des défauts (en vertu de leur statut d’outil ou d’objet), nous amène subrepticement à considérer les personnes authentiques qui nous dérangent de la même manière, « comme de simples êtres humains défectueux, les considérant avec le même type d’insatisfaction oisive que nous ressentirions à l’égard d’un robot qui ne fournirait pas l’ensemble des comportements et des réactions que nous voudrions consommer ».[6]

Cela peut conduire à reconsidérer la question des droits à accorder aux robots et aux systèmes d’IA. Certes, leur statut de machine permet de refuser légitimement de les considérer comme des sujets de droit. Cela ne signifie pas pour autant qu’il faille laisser chacun en faire ce qu’il veut, comme on le ferait avec une table. Un cadre réglementaire peut être souhaitable dans ce domaine, ne serait-ce que pour éviter le développement de comportements ou d’habitudes extrêmement toxiques pour l’être humain et les autres êtres vivants.

Tous ces éléments nous incitent à une réflexion approfondie sur les raisons qui poussent à développer des machines de plus en plus capables de prendre l’apparence d’un être humain ou d’un autre être vivant. Nous devons réfléchir à ce que nous pouvons réellement tirer de ces technologies.

[1] Voir : https://www.erudit.org/fr/revues/cs/2022-n4-cs07915/1098602ar.pdf

[2] Nous nous appuyons ici largement sur le chapitre 4 de « Encountering Artificial Intelligence : Investigations éthiques et anthropologiques ».

[3] A. Ghosh, La malédiction de la muscade. Une contre-histoire de la modernité, Wildproject 2024, pp. 170-171

[4] Dans les sous-sections suivantes, nous nous appuyons sur les travaux du groupe de recherche sur l’IA du Centre for Digital Culture (Culture et éducation) et sur son livre « Encountering Artificial Intelligence : Ethical and Anthropological Investigations ». *Journal of Moral Theology* 1 (Theological Investigations of AI) 2023 ; en particulier le chapitre 4. https://doi.org/10.55476/001c.91230

[5] Ibid., p. 119.

[6] Ibid., p. 121. La phrase complète est la suivante : « Est-il possible que nous ne voyions plus cela comme un aperçu d’une humanité plus vaste ? « Est-il possible que nous ne considérions plus cela comme un aperçu d’un éventail plus large de l’humanité, que nous ne nous efforcions plus d’avoir une réaction charitable ? Peut-être qu’au lieu de cela, nous en viendrons à considérer ces autres comme _simplement_ des êtres humains défectueux, les voyant avec le même type d’insatisfaction oisive que nous éprouverions à l’égard d’un robot qui ne fournirait pas l’ensemble de comportements et de réactions que nous voudrions consommer. »