Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.

Complexité sur la démocratie n°3 : Garantir la sûreté et la sécurité sans compromettre les droits fondamentaux

Certains participants reconnaissent l’intérêt d’utiliser les technologies de l’IA pour améliorer la sûreté et la sécurité (amélioration des capacités de vidéosurveillance, capacité accrue à prévoir et à gérer les crises telles que les épidémies ou les catastrophes naturelles).

Dans le même temps, les discussions font clairement apparaître des inquiétudes concernant les droits fondamentaux et la protection de la vie privée, en particulier la vie privée cognitive (déjà avec les algorithmes de profilage, et encore plus lorsque les neurosciences s’ajoutent au tableau). L’affaiblissement de la protection de la vie privée et l’effacement des limites entre les sphères publique et privée peuvent notamment entraver la liberté de pensée et d’expression ainsi que la vie démocratique et sociale. En outre, les participants insistent sur le fait que l’amélioration de la sécurité et de la sûreté ne doit pas se faire au détriment des plus vulnérables, qui peuvent avoir plus de difficultés à faire valoir leurs droits. D’une manière générale, les personnes ne devraient jamais être réduites à leurs données.

Les idées sont à retrouver dans les synthèses globales et locales téléchargeables ici

  • (Global – Démocratie) Utiliser l’IA pour garantir la sûreté et la sécurité
  • (Global – Démocratie) Garantir la protection de la vie privée
  • (Global – Démocratie) Prendre en compte les personnes vulnérables et contribuer aux droits humains, sociaux et à l’inclusion politique
  • (Global – Démocratie) Reconnaître que les personnes humaines dépassent la seule dimension mesurable
Eclairages par les chercheurs :

Basé sur les apports de Federico Giorgi (chercheur post-doctorant en philosophie), Nathanaël Laurent (enseignant-chercheur en philosophie de la biologie), Yves Poullet (professeur en droit des technologies de l’information et de la communication, Université de Namur, ESPHIN, Belgique) et Brian P. Green (professeur en éthique de l’IA et directeur en éthique des technologies au Markkula Center for Applied Ethics, Université Santa Clara, USA)

La protection de la vie privée est une composante essentielle de la vie collective, en particulier dans les sociétés démocratiques. Le droit de garder certaines choses secrètes, de les maintenir en dehors de la sphère publique est extrêmement fondamental. Comme le rappelle le philosophe belge Corentin de Salle, la vie privée est extrêmement importante pour plusieurs raisons fondamentales :[2]

D’abord, pour préserver la dignité des gens. Par pudeur, pourrait-on dire. Ensuite, parce que dévoiler ces choses qui doivent rester secrètes, c’est rendre les gens vulnérables. Cela peut conduire à miner leur autorité s’ils exercent des responsabilités. Cela revient à rendre plus difficile à endosser le rôle social qu’ils doivent endosser dans leur vie professionnelle. Cela peut aussi conduire à révéler leurs faiblesses et à permettre à des personnes peu scrupuleuses d’exploiter ces dernières pour les manipuler, les escroquer, voler leur identité ou leur faire du tort. Enfin, protéger la vie privée est important parce que tout le monde a besoin d’un refuge, d’un endroit où il peut se ressourcer sans se soucier de ce qu’il dit, de ce qu’il fait et de ce qu’il pense. (…)

En outre, la vie privée « n’est pas une liberté fondamentale au même titre que d’autres libertés, mais une condition d’autres libertés. En particulier, la liberté d’expression et la liberté de circulation. [Si je sais que je suis constamment espionné, je n’oserai plus m’exprimer comme je le souhaite, même dans des lieux plus intimes et privés », dit Yves Poullet. Si je me sens contrôlé en permanence, comment puis-je me déplacer à ma guise ?[3]  Avec l’émergence de la neurotechnologie qui offre de nouveaux pouvoirs d’analyse et de manipulation du fonctionnement du cerveau, les questions de protection de la vie privée pourraient devenir encore plus aiguës, avec la possibilité de porter atteinte à notre intégrité mentale et à notre identité psychologique. Il est peut-être temps de reconnaître des « neurodroits », comme l’ont déjà fait certains pays.

Une autre façon d’envisager le fondement du droit à la vie privée est la question du différentiel de pouvoir entre l’individu et l’État. Étant donné que le savoir est synonyme de pouvoir et que l’État dispose de beaucoup plus de savoir et de pouvoir que l’individu, l’État doit être plus transparent pour l’individu (liberté d’information sur le gouvernement, secret gouvernemental limité) et l’individu plus opaque pour l’État (droit au respect de la vie privée). La technologie numérique et les systèmes d’intelligence artificielle étendent d’une certaine manière ce problème d’asymétrie du pouvoir, car l’intelligence artificielle est un pouvoir qui peut être contrôlé par les États, mais aussi par d’autres organisations, et ces organisations devraient également être rendues plus transparentes pour le public, et le public devrait également être protégé de ces organisations par le biais du droit à la vie privée.

The desire for public safety via surveillance is, of course, in tension with the right to privacy noted above. The balance between safety and privacy is extremely contextual and so will vary from place to place, but in general, the transparency of the government side (or powerful organization) of the equation can be similarly enhanced in order to still protect individuals even if they are being more surveilled. It is also important to mention that privacy should never be considered from a pure individualistic approach. For instance, with profiling and recommendation technology: we must consider the fact that our profiles are deduced not only from our data but from big data where our data are mixed with data about other people. This means that our individual decision to allow our data collection and processing by AI applications also somehow engage other people. Our data might be used for profiling other people who refused the collection and processing of their data. In fact, behind the exploitation of people (personal) data there is a global question about the type of social and economic model we want to live in, a question that goes beyond the sole question of states’ surveillance of their citizens.

A.     Le capitalisme de surveillance

A cet égard, on peut évoquer le livre de Zuboff, The Age of Surveillance Capitalism (2018). Zuboff, professeur émérite à la Harvard Business School, connue pour ses recherches sur la technologie sur le lieu de travail, s’est attelée à une tâche de taille : créer un ensemble de termes qui rendent compte de l’enthousiasme suscité par les entreprises technologiques modernes. Selon elle, le capitalisme de surveillance gagne de l’argent en collectant, en traitant et en analysant les données relatives au comportement des personnes à l’aide de méthodes qui encouragent « l’indifférence radicale », une manière d’observer sans témoin. Cela le différencie du capitalisme industriel, qui tire ses profits de l’exploitation des ressources naturelles et de la main-d’œuvre. Les sociétés de surveillance ont trouvé une mine d’informations dans les données qu’elles collectent pour leur propre usage, et elles ont réalisé qu’elles pouvaient vendre cet « épuisement des données » aux annonceurs. Pour elles, les personnes qui se cachent derrière les données ne sont que des accessoires.

Zuboff considère les structures économiques qui en résultent comme totalement nouvelles : une forme de capitalisme dévoyé. Alors que les entreprises précédentes s’appuyaient sur une « accumulation primitive », les entreprises de surveillance comme Facebook et Google dépendent d’une « dépossession numérique » permanente, un concept qu’elle a repris de David Harvey. Chacun d’entre nous est constamment rendu compréhensible et rentable pour ces entreprises. Plus qu’une simple surveillance gouvernementale visant à limiter le libre arbitre, Zuboff craint que ces entreprises n’utilisent le libre arbitre humain pour atteindre leurs objectifs. Elles ne se soucient pas de nous, mais s’appuient sur les résultats prévisibles que nous leur fournissons.

Pour Zuboff, cela crée une situation troublante pour l’idée centrale du libéralisme moderne : l’individu. Elle considère le capitalisme de surveillance comme une extension des recherches de B.F. Skinner en psychologie, où les gens sont considérés comme n’étant rien de plus que leurs comportements et leurs réflexes. Skinner voulait améliorer l’unité sociale et l’efficacité sur le lieu de travail, sans tenir compte des choix individuels. Zuboff met en évidence des exemples qui montrent comment le capitalisme de surveillance est lié au behaviorisme, comme le développement de la biométrie et les recherches de Rosalind Picard sur l’informatique affective pour les utilisateurs autistes, qui ont ensuite été reprises par les start-ups de surveillance. Tout cela montre que le capitalisme de surveillance sape progressivement notre droit essentiel à la liberté individuelle.

[2] De Salle C., Tellier S., De Cooman J., Petit N., Duquenne E., Lombardo A., Hublet L. & Leduc P. (2018) La vie privée à l’ère des big data, Les Études du Centre Jean Gol, p. 9. https://www.cjg.be/les-etudes-du-cjg-la-vie-privee-a-lere-des-big-data/

[3] Ibid.