Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.
Complexité sur la démocratie n°3 : Garantir la sûreté et la sécurité sans compromettre les droits fondamentaux

Certains participants reconnaissent l’intérêt d’utiliser les technologies de l’IA pour améliorer la sûreté et la sécurité (amélioration des capacités de vidéosurveillance, capacité accrue à prévoir et à gérer les crises telles que les épidémies ou les catastrophes naturelles).
Dans le même temps, les discussions font clairement apparaître des inquiétudes concernant les droits fondamentaux et la protection de la vie privée, en particulier la vie privée cognitive (déjà avec les algorithmes de profilage, et encore plus lorsque les neurosciences s’ajoutent au tableau). L’affaiblissement de la protection de la vie privée et l’effacement des limites entre les sphères publique et privée peuvent notamment entraver la liberté de pensée et d’expression ainsi que la vie démocratique et sociale. En outre, les participants insistent sur le fait que l’amélioration de la sécurité et de la sûreté ne doit pas se faire au détriment des plus vulnérables, qui peuvent avoir plus de difficultés à faire valoir leurs droits. D’une manière générale, les personnes ne devraient jamais être réduites à leurs données.
Eclairages par les chercheurs :
Basé sur les apports de Federico Giorgi (chercheur post-doctorant en philosophie), Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie), Yves Poullet (professeur en droit des technologies de l’information et de la communication, Université de Namur, ESPHIN, Belgique) et Brian P. Green (professeur en éthique de l’IA et directeur en éthique des technologies au Markkula Center for Applied Ethics, Université Santa Clara, USA)
La protection de la vie privée est une composante essentielle de la vie collective, en particulier dans les sociétés démocratiques. Le droit de garder certaines choses secrètes, de les maintenir en dehors de la sphère publique est extrêmement fondamental. Comme le rappelle le philosophe belge Corentin de Salle, la vie privée est extrêmement importante pour plusieurs raisons fondamentales :[2]
D’abord, pour préserver la dignité des gens. Par pudeur, pourrait-on dire. Ensuite, parce que dévoiler ces choses qui doivent rester secrètes, c’est rendre les gens vulnérables. Cela peut conduire à miner leur autorité s’ils exercent des responsabilités. Cela revient à rendre plus difficile à endosser le rôle social qu’ils doivent endosser dans leur vie professionnelle. Cela peut aussi conduire à révéler leurs faiblesses et à permettre à des personnes peu scrupuleuses d’exploiter ces dernières pour les manipuler, les escroquer, voler leur identité ou leur faire du tort. Enfin, protéger la vie privée est important parce que tout le monde a besoin d’un refuge, d’un endroit où il peut se ressourcer sans se soucier de ce qu’il dit, de ce qu’il fait et de ce qu’il pense. (…)
En outre, la vie privée « n’est pas une liberté fondamentale au même titre que d’autres libertés, mais une condition d’autres libertés. En particulier, la liberté d’expression et la liberté de circulation. [Si je sais que je suis constamment espionné, je n’oserai plus m’exprimer comme je le souhaite, même dans des lieux plus intimes et privés », dit Yves Poullet. Si je me sens contrôlé en permanence, comment puis-je me déplacer à ma guise ?[3] Avec l’émergence de la neurotechnologie qui offre de nouveaux pouvoirs d’analyse et de manipulation du fonctionnement du cerveau, les questions de protection de la vie privée pourraient devenir encore plus aiguës, avec la possibilité de porter atteinte à notre intégrité mentale et à notre identité psychologique. Il est peut-être temps de reconnaître des « neurodroits », comme l’ont déjà fait certains pays.
Une autre façon d’envisager le fondement du droit à la vie privée est la question du différentiel de pouvoir entre l’individu et l’État. Étant donné que le savoir est synonyme de pouvoir et que l’État dispose de beaucoup plus de savoir et de pouvoir que l’individu, l’État doit être plus transparent pour l’individu (liberté d’information sur le gouvernement, secret gouvernemental limité) et l’individu plus opaque pour l’État (droit au respect de la vie privée). La technologie numérique et les systèmes d’intelligence artificielle étendent d’une certaine manière ce problème d’asymétrie du pouvoir, car l’intelligence artificielle est un pouvoir qui peut être contrôlé par les États, mais aussi par d’autres organisations, et ces organisations devraient également être rendues plus transparentes pour le public, et le public devrait également être protégé de ces organisations par le biais du droit à la vie privée.
Le désir d’assurer la sécurité publique par la surveillance est, bien sûr, en contradiction avec le droit à la vie privée mentionné ci-dessus. L’équilibre entre sécurité et vie privée dépend fortement du contexte et varie donc d’un endroit à l’autre, mais en général, la transparence du gouvernement (ou des organisations puissantes) peut être améliorée de manière similaire afin de continuer à protéger les individus même s’ils font l’objet d’une surveillance accrue. Il est également important de mentionner que la vie privée ne doit jamais être considérée d’un point de vue purement individualiste. Prenons l’exemple des technologies de profilage et de recommandation : nous devons tenir compte du fait que nos profils sont déduits non seulement à partir de nos données, mais aussi à partir de mégadonnées dans lesquelles nos données sont mélangées à celles d’autres personnes. Cela signifie que notre décision individuelle d’autoriser la collecte et le traitement de nos données par des applications d’IA engage d’une certaine manière d’autres personnes. Nos données pourraient être utilisées pour profiler d’autres personnes qui ont refusé la collecte et le traitement de leurs données. En fait, derrière l’exploitation des données (personnelles) des personnes se cache une question globale sur le type de modèle social et économique dans lequel nous voulons vivre, une question qui va au-delà de la seule question de la surveillance des citoyens par les États.
A. Le capitalisme de surveillance
A cet égard, on peut évoquer le livre de Zuboff, The Age of Surveillance Capitalism (2018). Zuboff, professeur émérite à la Harvard Business School, connue pour ses recherches sur la technologie sur le lieu de travail, s’est attelée à une tâche de taille : créer un ensemble de termes qui rendent compte de l’enthousiasme suscité par les entreprises technologiques modernes. Selon elle, le capitalisme de surveillance gagne de l’argent en collectant, en traitant et en analysant les données relatives au comportement des personnes à l’aide de méthodes qui encouragent « l’indifférence radicale », une manière d’observer sans témoin. Cela le différencie du capitalisme industriel, qui tire ses profits de l’exploitation des ressources naturelles et de la main-d’œuvre. Les sociétés de surveillance ont trouvé une mine d’informations dans les données qu’elles collectent pour leur propre usage, et elles ont réalisé qu’elles pouvaient vendre cet « épuisement des données » aux annonceurs. Pour elles, les personnes qui se cachent derrière les données ne sont que des accessoires.
Zuboff considère les structures économiques qui en résultent comme totalement nouvelles : une forme de capitalisme dévoyé. Alors que les entreprises précédentes s’appuyaient sur une « accumulation primitive », les entreprises de surveillance comme Facebook et Google dépendent d’une « dépossession numérique » permanente, un concept qu’elle a repris de David Harvey. Chacun d’entre nous est constamment rendu compréhensible et rentable pour ces entreprises. Plus qu’une simple surveillance gouvernementale visant à limiter le libre arbitre, Zuboff craint que ces entreprises n’utilisent le libre arbitre humain pour atteindre leurs objectifs. Elles ne se soucient pas de nous, mais s’appuient sur les résultats prévisibles que nous leur fournissons.
Pour Zuboff, cela crée une situation troublante pour l’idée centrale du libéralisme moderne : l’individu. Elle considère le capitalisme de surveillance comme une extension des recherches de B.F. Skinner en psychologie, où les gens sont considérés comme n’étant rien de plus que leurs comportements et leurs réflexes. Skinner voulait améliorer l’unité sociale et l’efficacité sur le lieu de travail, sans tenir compte des choix individuels. Zuboff met en évidence des exemples qui montrent comment le capitalisme de surveillance est lié au behaviorisme, comme le développement de la biométrie et les recherches de Rosalind Picard sur l’informatique affective pour les utilisateurs autistes, qui ont ensuite été reprises par les start-ups de surveillance. Tout cela montre que le capitalisme de surveillance sape progressivement notre droit essentiel à la liberté individuelle.
[2] De Salle C., Tellier S., De Cooman J., Petit N., Duquenne E., Lombardo A., Hublet L. & Leduc P. (2018) La vie privée à l’ère des big data, Les Études du Centre Jean Gol, p. 9. https://www.cjg.be/les-etudes-du-cjg-la-vie-privee-a-lere-des-big-data/
[3] Ibid.

