Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.

Complexité sur la démocratie n°7 : Défendre la spécificité humaine à l’ère des machines imitant l’humain

Les participants soulignent l’importance de préserver certaines valeurs et caractéristiques propres à l’humanité, telles que la spiritualité, la sagesse, l’émotivité, la créativité, l’autonomie, l’esprit critique, l’imagination, la conscience, l’empathie, etc. Certaines de ces capacités sont essentielles dans nos systèmes démocratiques et juridiques et ne peuvent être véritablement reproduites par des machines. C’est le cas, par exemple, de l’empathie et de l’écoute lorsque des difficultés et des complexités apparaissent lors d’un procès ou dans une situation juridique difficile.

Néanmoins, les participants s’inquiètent de la difficulté croissante à distinguer les humains des machines, ainsi que les contenus numériques réels des contenus numériques faux (tels que les contenus générés par l’IA présentés comme étant créés par des humains). Même si la réglementation juridique imposait d’informer les citoyens lorsqu’ils interagissent avec des systèmes d’IA ou des contenus générés par l’IA, il pourrait devenir difficile de préserver et de défendre notre singularité humaine si les capacités des machines à imiter les humains continuent de se développer. Le problème semble déjà se poser en matière de créativité.

Les idées sont à retrouver dans les synthèses globales et locales téléchargeables ici

  • (Global – Démocratie) Préserver la spécificité des êtres humains (comparé aux machines)
  • (Global – Démocratie) Le (difficile) futur défi de distinguer l’IA et l’humain
Eclairages par les chercheurs :

Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie) et Federico Giorgi (chercheur post-doc en philosophie, Université de Namur, Belgique)

La littérature philosophique s’est souvent intéressée à la question des similitudes supposées entre les êtres humains et les machines. En fait, l’une des raisons pour lesquelles l’intelligence artificielle a d’abord été inventée, puis développée, était précisément la curiosité et l’ambition de savoir s’il était possible de créer un algorithme capable de répondre à une série de questions comme le ferait un être humain, et ce, de manière si réaliste qu’il pourrait même tromper un examinateur humain. C’est cette question qui a poussé Alan Turing à concevoir son célèbre jeu de l’imitation (Turing, 1950).

D’autre part, même si nous supposons — sans l’admettre — qu’un algorithme est capable de passer le test de Turing, qui, comme on le sait, nécessite des conditions expérimentales très spécifiques (telles que le fait que la machine soit placée dans une pièce séparée de l’examinateur), cela ne signifie pas qu’une machine peut se substituer à un être humain sans que personne ne s’en aperçoive. Comme le fait remarquer le biologiste Giuseppe Longo, il existe un fossé irréductible entre une imitation et le phénomène qu’elle imite, entre une machine et un être vivant (Longo, 2021).

Même l’algorithme de reconnaissance d’images le plus sophistiqué doit effectuer un processus de classification complexe avant d’apprendre à reconnaître un chat, alors qu’un enfant est capable de le faire après n’en avoir vu qu’un seul. Cette expérience (voir un chat pour la première fois) génère chez l’enfant des émotions — telles que la curiosité ou la peur — qu’une machine ne peut ressentir.

Le récit de Longo sur la différence entre les êtres humains et les machines corrobore la thèse ci-dessus, formulée par les participants au débat, selon laquelle il existe des caractéristiques propres à l’être humain.