Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.

Complexité transversale n°4: Soutenir sans compromettre la prise de décision humaine

De nombreux participants aux discussions collectives reconnaissent que les technologies d’IA peuvent aider les humains à prendre des décisions dans divers domaines (voire être plus performantes dans certaines tâches). Elles peuvent nous aider à organiser la grande quantité d’informations que nous devons traiter (en particulier sur les réseaux sociaux et Internet) et contribuer à améliorer la qualité de ces informations (vérification des faits, lutte contre les fausses informations (profondes), etc.). Elles peuvent permettre de prévenir ou de gérer divers problèmes et crises (assurer une meilleure sécurité dans l’espace public grâce à une surveillance plus efficace, détecter la fraude ou la corruption, anticiper les épidémies ou les caprices de la météo et du changement climatique, etc.).

Cependant, il est également largement admis que l’aide apportée par l’IA à la prise de décision peut soulever des difficultés extrêmement aiguës. Tout d’abord, il peut devenir difficile de préserver l’indépendance de la prise de décision humaine, avec la possibilité de s’écarter parfois des recommandations de la machine (par exemple sur la base d’une réflexion humaine et d’une intuition acquise par l’expérience). Cela peut devenir particulièrement problématique pour les professionnels à qui nous déléguons et accordons des pouvoirs, avec le risque de transférer la délégation de pouvoirs des professionnels aux machines (cette inquiétude a été exprimée au sujet de la relation médecin-patient, mais pourrait probablement s’appliquer également dans le contexte de l’éducation, à la relation élève-enseignant). En outre, les chaînes et les modèles de responsabilité peuvent souffrir d’une dilution et d’une obscurcissement. Dans cette perspective, il ne faut jamais perdre de vue le fait que seuls les êtres humains, grâce à leur conscience et à leur esprit critique, sont capables de faire des choix éthiques et de prendre des décisions responsables. Les humains sont donc les seuls responsables des orientations technologiques et des conséquences de l’utilisation de l’IA.

En outre, comme l’ont souligné les discussions dans le domaine de la démocratie, l’implication de l’IA (générative) dans le traitement, la gestion et l’édition de notre paysage informationnel soulève des questions préoccupantes, avec des risques sérieux de compromettre et d’entraver l’intelligence collective. Des algorithmes biaisés et/ou injustes peuvent propager automatiquement et silencieusement des discriminations, créer des bulles informationnelles ou cognitives isolant les individus dans des paysages informationnels uniformes. L’IA (générative) peut faciliter et favoriser la production et la diffusion de fausses informations (profondes). L’IA peut nuire à notre capacité à trouver des informations précises, fiables et sourcées, introduisant la méfiance parmi les citoyens mal informés, compromettant les bons choix démocratiques et le pluralisme.

Comment recevez-vous ces éléments de synthèse ? Font-ils échos à vos réflexions, à votre vécu ?
Eclairages par les chercheurs :

Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie, Université de Namur, ESPHIN) et Federico Giorgi (chercheur post-doc en philosophie, Université de Namur, ESPHIN, Belgique)

La thèse selon laquelle il serait possible de programmer un algorithme pour prendre des décisions éthiques à notre place est parfois appelée « algoréthique ». Outre les nombreuses questions critiques que soulève naturellement une telle perspective – dont certaines sont mises en évidence par les participants au débat NHNAI –, il est intéressant de noter que ce type de projet tend à réduire la moralité d’une action à l’intention de l’agent d’aligner son comportement sur un ensemble de principes éthiques.

Cette vision déontologique de l’éthique, bien qu’elle ne soit pas dépourvue d’arguments à l’appui, semble quelque peu réductrice, car elle ne tient pas suffisamment compte des résultats de l’action entreprise (Cabitza, 2021). Lorsqu’on réfléchit à la manière dont une nouvelle technologie devrait être utilisée, il semble donc plus approprié d’adopter une approche conséquentialiste, dans laquelle le caractère moral d’une action est évalué principalement en fonction des conséquences qu’elle produit.