Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.
Complexité transversale n°3 : Devenir plus efficaces sans menacer l’essentiel de ce qui fait de nous des êtres humains
L’idée globale-transversale “S’appuyer sur les technologies pour améliorer notre vie” a souligné le fait que les technologies d’IA et d’automatisation pourraient nous aider à gagner du temps pour des activités essentielles telles que les relations ou tout ce qui favorise l’épanouissement humain en déléguant les tâches fastidieuses aux machines. Il a également souligné que les résultats de l’IA et des NS pourraient nous permettre d’améliorer nos capacités physiques et mentales, ainsi que nos performances et notre efficacité.
L’idée globale transversale “Chercher à s’améliorer” exprime l’idée qu’il est dans la nature de l’homme de chercher à s’améliorer, à progresser et à maximiser son efficacité.
Néanmoins (comme l’idée globale-transversale “Préserver et intensifier ce qui fait de nous des êtres humains et favoriser l’épanouissement humain” avertit qu’il peut s’avérer destructeur de rechercher systématiquement et sans esprit critique l’augmentation et l’amélioration de l’efficacité et de la performance. Cela pourrait conduire à sacrifier des aspects essentiels pour les humains, tels que l’autonomie, la créativité, les relations, ou à nier certaines limites et vulnérabilités qui sont au cœur de ce que signifie être humain (la mortalité, l’affectabilité, par exemple).
Eclairages par les chercheurs : Subtilités avec la notion d’amélioration (de soi)
La notion d’amélioration de soi peut s’avérer délicate et nous devons la mobiliser avec prudence.
A. Du point de vue des sciences cognitives
La recherche de l’amélioration de soi est quelque chose qui n’existe pas en tant que tel dans le comportement humain, si elle n’est pas rattachée à une action orientée vers un but et dans un contexte temporel large (ex : nous voulons assurer l’accès à la nourriture et à l’eau, à un abri, …). Ce but comporte une valeur pour l’être humain qui le motive (ou non) à poursuivre l’apprentissage et le développement de certaines capacités et de certains comportements. Les humains pensent qu’ils maximisent leur efficacité, mais comme Herbert Simon l’a mentionné, les humains ont une rationalité limitée, et donc des capacités limitées pour vraiment maximiser les processus de pensée et donc le comportement. Les humains « satisfont » plutôt leur comportement afin d’être satisfaits le plus rapidement possible, ce qui n’est pas la même chose que de maximiser leurs capacités. Ce biais s’applique également à l’utilisation de la technologie, et avec l’IA, il est fortement potentialisé. Or, comme cela a été démontré, elle réduit considérablement les possibilités d’apprentissage de la personne et, in fine, sa liberté d’action dans le monde. Ainsi, la recherche de l’amélioration de soi devrait résonner avec la possibilité d’augmenter l’apprentissage (incarné) et les possibilités d’apprentissage futur (garder des portes ouvertes…) au lieu d’accélérer certaines performances qui, plus loin, privent l’humain d’apprendre et donc de s’adapter à des conditions changeantes (si l’on considère que sa capacité d’adaptation dépend grandement de sa capacité à apprendre de nouveaux comportements/pensées pour faire face à de nouveaux problèmes).
B. Du point de vue philosophique, anthropologique et théologique
D’une manière générale, entre nous améliorer et préserver ce qui fait de nous des êtres humains pourrait être discuté dans le cadre d’un livre publié en mars 2024 par les Editions du Cerf (Paris) intitulé « L’être humain au centre du monde : Pour un humanisme des temps présents et futurs. Contre les nouveaux obscurantismes ». Daniel Salvatore Schiffer y résume l’un des messages clés :
En bref : l’érosion insidieuse et progressive, voire l’évaporation, de l’être humain, dans toute sa complexité anthropologique (pour reprendre un concept clé de l’édifice philosophico-sociologique d’Edgar Morin), au profit d’un monde trop souvent aliéné, directif et réducteur, C’est un totalitarisme qui s’ignore ou qui ne dit pas son nom et qui, face à une pensée de plus en plus manichéenne, avance masqué, sournois et silencieux, mais d’autant plus dangereux pour la liberté de l’esprit, de la parole et de la pensée, sinon de la conscience !
Cette évaporation de l’humain est très menaçante. En effet, nous ne pouvons pas savoir ce qui a de la valeur en nous si nous ne savons pas ce que nous sommes et qui nous sommes.
Le cœur de notre nature humaine peut être interprété bibliquement comme étant l’amour, car nous sommes créés à l’image d’un Dieu qui est amour (1 Jean 4:8) et qui nous ordonne d’aimer (Lév. 19:18, Deut. 6:4-5, Matthieu 22:35-40, Marc 12:29-33, Luc 10:27) – même nos ennemis (Matthieu 5:43-44) – et, par cet amour, de devenir plus pleinement humains et divins. Cependant, le premier chapitre de l’Évangile de Jean nous apprend également que Dieu est Logos, parole et raison, et que, par conséquent, l’univers est rationnel, significatif et fondé sur la sagesse la plus profonde.
Si donc nous avons une double nature (au moins double, si ce n’est plus) en tant que créatures aimantes et logiques, alors l’IA représente une opportunité et une menace pour nous dans ces deux domaines clés. Nous pouvons utiliser l’IA pour nous aider à apprendre de nouvelles vérités et à acquérir une nouvelle sagesse sur l’univers, pour mieux prendre soin les uns des autres et construire la paix dans le monde. Ou bien nous pouvons abuser de l’IA pour remplacer nos capacités de réflexion, ce qui nous rendrait insensés, et entraverait notre capacité à aimer, ou pire encore, transformerait notre amour en haine. Nous voyons déjà ces utilisations néfastes de l’IA se répandre dans la société, sous la forme de l’utilisation de l’IA générative pour tricher à l’école, et des algorithmes d’IA qui stimulent l’engagement dans les médias sociaux et les applications par le biais de contenus qui font appel à la dépendance, au vice et au mépris d’autrui.
Cette opportunité et cette menace de l’IA touchent au cœur de notre être et démontrent ainsi la validité de l’angoisse existentielle que l’IA suscite instinctivement chez certaines personnes. En effet, elle devrait susciter cette angoisse – ou au moins cette inquiétude – chez chacun d’entre nous.
Dans la mesure où l’IA peut nous aider à devenir des êtres plus logiques et plus aimants, elle est une bénédiction pour l’humanité. Dans la mesure où elle nous rendra moins logiques et moins aimants, elle sera une malédiction. Si ces deux hypothèses sur l’humanité ont un fondement théologique, il y a de bonnes raisons de penser qu’il ne s’agit pas seulement d’un fondement théologique : il est également psychologique, anthropologique, sociologique, philosophique, éthique, etc. Il est intuitif – et rationnel – de penser que ces caractéristiques de l’humanité sont légitimement proches du cœur de l’identité humaine, et qu’elles sont donc des préoccupations concernant notre engagement avec l’IA.
Enfin, l’importance de l’autonomie et de l’agentivité peut être démontrée de manière empirique. À partir des données collectées dans le cadre de ce projet. Avec quatre synthèses thématiques majeures couvrant l’éducation, la démocratie et la santé, provenant de tous les pays impliqués dans le projet, avec des dizaines de revendications/idées formulées, il s’agit clairement d’un sujet d’une importance prééminente.
En ce qui concerne l’autonomie et l’agentivité, l’IA les menace toutes les deux. Parce que l’IA automatise l’action, elle délègue effectivement cette action de certains humains à d’autres humains en utilisant l’IA comme outil (rappelant CS Lewis, qui a dit la même chose de la technologie en général (en tant que forme distillée de la nature) dans le chapitre 3 de L’abolition de l’homme). Quiconque contrôle ces IA agentielles a donc le pouvoir de priver d’autres personnes de leur pouvoir par le biais de systèmes automatisés.
Ce n’est là qu’un des moyens par lesquels l’IA pourrait nous priver de notre autonomie et de notre agentivité. Une autre est que nous pourrions être déqualifiés – à la fois techniquement et moralement – et perdre ainsi notre propre capacité à être des agents moraux à part entière. Que nous soyons activement dépossédés de notre pouvoir par d’autres ou que nous nous dépossédions nous-mêmes passivement ou par inaction, l’IA représente une véritable menace à laquelle il convient de faire face avec beaucoup d’attention et d’urgence.
Se rappeler que l’autonomie et l’agentivité sont au cœur de ce que signifie être humain nous rappelle également que la responsabilité est aussi la nôtre. Nous sommes responsables de nos actes, qu’ils soient petits ou grands, que nous choisissions de nous autonomiser ou de nous déresponsabiliser, que nous agissions par commission ou par omission, ou que nous agissions directement ou par le biais d’intermédiaires – humains ou IA. La responsabilité incombe aux humains qui prennent les décisions, même si l’IA exécute finalement ces décisions, une fois ou un milliard de fois.