Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.

Complexité transversale n°1 : Quel lien, quelles interactions avec les machines ?

Certains participants soulignent qu’avec les progrès de l’IA, nous aurons tendance à développer des machines (robots, automates conversationnels) capables d’imiter ou de simuler des comportements et des capacités propres aux humains et aux êtres vivants, tels que l’empathie, l’assertivité, la vie émotionnelle et affective. Par conséquent, il sera de plus en plus tentant de s’attacher émotionnellement à ce type de machines capables de simuler des capacités relationnelles (comme les compagnons ou les assistants artificiels, ou encore les robots de soins personnels).

Ces discussions soulèvent également la question des droits à accorder aux robots avancés ou aux systèmes intelligents.

En même temps, de nombreuses contributions aux débats soulignent l’importance de ne pas perdre de vue la spécificité du vivant et de l’humain par rapport aux machines. Les machines ne sont pas conscientes, ne ressentent pas d’émotions, ne peuvent pas être sages, créatives, critiques ou autonomes, ne sont pas capables de spiritualité au sens habituel de ces termes, qui implique un enracinement dans l’expérience vécue, dans un corps biologique. Au mieux, ils peuvent simuler des comportements convaincants dans ces registres (notamment par la conversation), comportements que des êtres humains ou des êtres vivants auraient dans des circonstances données.

De ce point de vue, de nombreux participants s’accordent à dire que l’IA ne peut pas être un sujet de droit. La question est largement qualifiée de spéculative ou de science-fictionnelle, sans pour autant être inintéressante.

Ainsi, il est assez largement exprimé dans les discussions qu’il faut résister à la tentation (de plus en plus réelle et puissante) de percevoir certains robots ou systèmes d’IA comme de véritables personnes et d’essayer de se connecter avec eux affectivement (comme on le ferait avec un humain, ou même avec un autre être vivant). Nous devons résister à la tentation de substituer des interactions avec des machines à de véritables relations humaines.

Les idées sont à retrouver dans les synthèses globales et locales téléchargeables ici.

  • Les systèmes d’IA et les machines ne peuvent pas être confondus avec des êtres humains et ne peuvent donc pas être dotés de droits similaires à ceux des êtres humains.
    • (Global – Démocratie) Préserver la spécificité de l’être humain (par rapport à la machine)
    • (France – Démocratie) Indésirable : La reconnaissance d’une personnalité juridique pour les IA n’est pas souhaitable
    • (France – Démocratie) Souhaitable : Les algorithmes restent des outils (1 extract)
    • (USA – Démocratie) Les machines sont au service de l’humanité, c’est pourquoi l’humanité doit garder un contrôle approprié sur l’IA.
    • (France – Démocratie) La question complexe du statut juridique de l’intelligence artificielle est largement débattue
  • Les systèmes d’IA ne doivent pas remplacer les relations humaines
    • (Global – Transversal) Préserver l’empathie, le contact humain et les relations humaines
  • Les systèmes d’IA auront de plus en plus de comportements qui permettent ou encouragent la tendance des humains à vouloir se connecter et s’attacher à eux.
    • (Portugal – Démocratie) L’homme et la machine peuvent se rapprocher
    • (Portugal – Démocratie) L’intelligence artificielle tendra à imiter les capacités humaines
Comment recevez-vous ces éléments de synthèse ? Font-ils échos à vos réflexions, à votre vécu ?
Eclairages par les chercheurs :

Il est plus que légitime de s’émerveiller des récents développements des technologies de l’IA, qui ont permis à des programmes tels que chat-GPT et d’autres grands modèles de langage d’entretenir une conversation convaincante avec les humains. Toutefois, cet émerveillement doit être motivé par de bonnes raisons. Après tout, ces succès n’ont rien à voir avec la création de nouvelles formes de vie, de nouveaux êtres intelligents, que nous appellerions les IA. Il est tout aussi vertigineux, sinon plus, de constater que l’homme a pu construire des machines, des artefacts capables de simuler ou de reproduire des comportements intelligents (des comportements convaincants qui auraient pu venir de l’homme), sans aucune vie, sans aucun vécu, sans aucune conscience, mais avec de purs mécanismes (des mécanismes inertes, mais d’une complexité et d’une miniaturisation éblouissantes). En plus de démystifier l’apprentissage automatique (y compris l’apprentissage profond, basé sur les réseaux de neurones artificiels), il est également crucial de se rappeler que tous les programmes (du plus traditionnel et conventionnel au programme d’IA le plus avancé produit par l’apprentissage automatique) fonctionnent sur des ordinateurs ou des machines similaires qui ne sont pas (ou sont moins) programmables. Ce que fait une machine comme un ordinateur, c’est transformer des configurations matérielles auxquelles les humains ont associé des significations précises (une série d’aimants sur un disque dur symbolise une séquence de 0 et de 1, elle-même associée, par exemple, à une séquence de mots ou à une séquence de nombres codant les couleurs des pixels d’une image) en de nouvelles configurations matérielles associées à d’autres significations (par exemple, une nouvelle série de mots, une image modifiée ou une description de l’image). Ce type de machine, conçue pour transformer des configurations matérielles en d’autres en fonction de ce que ces configurations signifient, n’est pas nouveau. L’ordinateur peut être considéré comme l’aboutissement d’une longue évolution des techniques et technologies de l’information, qui remonte probablement aux débuts de l’écriture. Dans cette perspective, le boulier peut être considéré comme un ancêtre de l’ordinateur (transformation mécanique de configurations symbolisant, par exemple, des nombres à additionner, en configurations symbolisant le résultat de l’addition).

Il n’y a donc pas à proprement parler de sens, d’images, de mots ou de nombres dans les ordinateurs, encore moins d’émotions ou de conscience. Ce sont cependant de fantastiques machines qui manipulent mécaniquement (avec une efficacité et une précision incroyables) d’innombrables configurations matérielles auxquelles nous, les humains, attachons un sens. Une série d’aimants sur le disque dur d’un ordinateur fera en sorte que différents pixels de l’écran émettent des couleurs différentes, qui seront pour nous plus que de minuscules sources de lumière colorée, qui deviendront des textes nous informant sur des sentiments, des images de visages ressentant telle ou telle émotion. Mais l’ordinateur ne traite l’information qu’en manipulant mécaniquement et automatiquement des aimants (ou d’autres configurations matérielles).

Il est donc d’autant plus impressionnant de voir ce que nous pouvons faire faire aux ordinateurs avec des programmes dérivés des techniques d’apprentissage automatique. De grands modèles de langage comme chat-GPT nous parlent de manière convaincante (avec un contenu affectif ou émotionnel crédible). Nous pouvons également essayer d’analyser automatiquement les émotions et les sentiments dans ce que les gens disent, ou dans les vidéos capturant les expressions corporelles ou faciales. Ces nouvelles technologies ouvrent la possibilité d’interactions toujours plus riches et plus intéressantes avec les machines, avec des modalités qui reproduisent ou simulent un nombre croissant de caractéristiques des interactions et des relations entre les êtres vivants en général, et entre les humains en particulier.

Pour bien envisager les conséquences et les enjeux de ces nouvelles possibilités d’interaction avec les machines, plusieurs points méritent d’être soulignés [1]. En premier lieu, et contrairement à ce que les approches behavioristes pourraient suggérer (en lien avec le fameux test de Turing), il semble important de maintenir une distinction entre simuler un comportement résultant d’une expérience vécue et avoir ce même comportement tout en vivant cette expérience vécue. Que dire, par exemple, d’une machine qui exprime des paroles de compassion à une personne âgée dans la perspective de sa fin de vie ? Elle ne peut être confondue avec les mêmes paroles prononcées par une personne capable d’éprouver sa finitude, de ressentir et de compatir dans un vécu partagé.

Deuxièmement, il est également important de dire que le simple fait de reconnaître que les machines ne sont que des machines, et de les traiter comme de purs outils, n’est pas nécessairement la réponse à tous les problèmes. En effet, dans cette perspective et selon toute vraisemblance, les compagnons artificiels (comme dans le film Her de Spike Jonze en 2013) seront construits et programmés pour trouver leur place sur un marché et donc se comporter d’une manière qui satisfasse l’utilisateur (par exemple, qui voudrait d’un compagnon artificiel qui pourrait trahir ou quitter son humain ?) Nous serons donc confrontés à des systèmes perçus comme des objets, des possessions, mais qui tireront tout leur attrait spécifique de leur capacité à ressembler à une personne authentique, à manifester une apparence d’humanité, de personnalité ou de vie. L’accoutumance progressive à la combinaison de ces deux caractéristiques pourrait s’avérer extrêmement destructrice pour l’humanité. Cela reviendrait à développer progressivement une capacité à s’accommoder de l’esclavage : « Là où il n’y a pas d’« autre », mais seulement l’apparence d’un autre à notre disposition, en même temps que l’absence de l’exigence qui serait exercée sur notre propre don de soi par la confrontation avec un véritable autre, nous risquons d’être conditionnés dans un dangereux talent d’exploitation. »[2]

Dans le même ordre d’idées, cette combinaison du statut d’objet ou d’outil et de l’apparence personnelle peut également nous amener à nous habituer à une attitude de consommateur à l’égard du comportement d’autrui, réduisant progressivement notre tolérance à l’égard du comportement d’autrui qui nous dérangerait. Il n’est pas impossible que la présence constante de compagnons artificiels, dont les comportements dérangeants seront perçus comme des défauts (en vertu de leur statut d’outil ou d’objet), nous amène subrepticement à considérer les personnes authentiques qui nous dérangent de la même manière, « comme de simples êtres humains défectueux, les considérant avec le même type d’insatisfaction oisive que nous ressentirions à l’égard d’un robot qui ne fournirait pas l’ensemble des comportements et des réactions que nous voudrions consommer ».[3]

Cela peut conduire à reconsidérer la question des droits à accorder aux robots et aux systèmes d’IA. Certes, leur statut de machine permet de refuser légitimement de les considérer comme des sujets de droit. Cela ne signifie pas pour autant qu’il faille laisser chacun en faire ce qu’il veut, comme on le ferait avec une table. Un cadre réglementaire peut être souhaitable dans ce domaine, ne serait-ce que pour éviter le développement de comportements ou d’habitudes extrêmement toxiques pour l’être humain et les autres êtres vivants.

Tous ces éléments nous incitent à une réflexion approfondie sur les raisons qui poussent à développer des machines de plus en plus capables de prendre l’apparence d’un être humain ou d’un autre être vivant. Nous devons réfléchir à ce que nous pouvons réellement tirer de ces technologies.

Mathieu Guillermin, basé sur les travaux du groupe de recherche sur l’intelligence artificielle du Centre pour la culture numérique (Culture et éducation) et sur son livre « Encountering Artificial Intelligence : Ethical and Anthropological Investigations ». *Journal of Moral Theology* 1 (Theological Investigations of AI) 2023 : i-262. https://doi.org/10.55476/001c.91230

[3] Ibid., p. 121. La phrase complète est la suivante : « Est-il possible que nous ne voyions plus cela comme un aperçu d’une humanité plus vaste ? « Est-il possible que nous ne considérions plus cela comme un aperçu d’un éventail plus large de l’humanité, que nous ne nous efforcions plus d’avoir une réaction charitable ? Peut-être qu’au lieu de cela, nous en viendrons à considérer ces autres comme _simplement_ des êtres humains défectueux, les voyant avec le même type d’insatisfaction oisive que nous éprouverions à l’égard d’un robot qui ne fournirait pas l’ensemble de comportements et de réactions que nous voudrions consommer. »