Être humain à l’époque des neurosciences et de l’intelligence artificielle implique d’explorer soigneusement les nœuds de complexité où des idées valables sont néanmoins en tension, manifestant des subtilités et des défis qu’il ne faut pas négliger. Chaque page exprime la ou les tensions existantes entre des idées et dans chaque thème, apparues dans les discussions collectives, et sont ensuite complétées par un éclairage des chercheurs du réseau NHNAI.
Complexité sur la santé n°6 : Développer l’IA et les technologies de santé sans compromettre la vie privée et l’intégrité des personnes
Les participants reconnaissent largement les avantages que l’on peut tirer du développement de l’IA et des technologies de la santé dans les soins de santé et la médecine ainsi que dans le domaine de l’amélioration humaine (amélioration de la prise de décision médicale, automatisation de certaines tâches, amélioration de l’accès aux soins de santé et aux informations liées à la santé, amélioration des capacités physiques et mentales, …).
Dans le même temps, les participants s’inquiètent également du risque que des informations sensibles sur la santé soient collectées à des fins non médicales. Les données de santé collectées par l’IA ou les outils numériques ne devraient servir qu’à des fins médicales et de soins de santé. Les solutions numériques ne devraient pas impliquer l’intrusion d’organisations extérieures (comme les compagnies d’assurance).
En outre, avec la convergence des sciences naturelles et de l’intelligence artificielle, les données pourraient être utilisées pour accroître le pouvoir de prédiction sur les comportements et les pensées des personnes, ainsi que les possibilités de manipulation cognitive. Il convient donc de protéger la vie privée et l’intériorité des personnes.
Eclairages par les chercheurs :
Fernand Doridot – enseignant-chercheur en éthique et philosophie des sciences et technologies
La possibilité d’utiliser les données relatives aux soins de santé pour contribuer au financement coûteux de l’innovation en matière de soins de santé fait l’objet d’un débat récurrent. Cette voie pourrait s’avérer intéressante, à condition que la protection de ces données soit convaincante et qu’elles soient utilisées de manière anonyme et avec un consentement éclairé. Cependant, un certain nombre d’études ont documenté des cas où l’anonymisation a échoué, entraînant un risque de ré-identification (Ohm, 2010). Il a également été souligné que, sous l’effet d’incitations économiques, des populations particulièrement vulnérables pouvaient faire l’objet de divers types d’abus (Vayena & Tasioulas, 2016).
Il est généralement admis qu’il est très important que des acteurs extérieurs, tels que les compagnies d’assurance, ne puissent pas accéder aux données relatives à la santé. La confiance du public pourrait être sérieusement ébranlée par l’utilisation des données de santé par des organisations privées à des fins commerciales ou discriminatoires. L’utilisation des données de santé à des fins médicales explicites uniquement est censée être garantie par le règlement RGPD, qui impose des restrictions claires sur l’accès et l’utilisation des données personnelles à cette fin (Floridi & Taddeo, 2016).
La convergence de l’IA et des neurotechnologies ouvre la porte à la prédiction ou à la manipulation du comportement cognitif, et fait donc peser de nouvelles menaces sur la vie privée cognitive et la liberté mentale. Plusieurs auteurs insistent ainsi sur l’importance de protéger la « privacy of the mind », notamment par des réglementations (Ienca & Andorno, 2017).
Face à tous ces défis, des outils tels que la blockchain sont parfois évoqués comme susceptibles de permettre aux individus de contrôler l’accès à leurs données de santé ainsi que leur éventuelle mise à disposition à des fins d’innovation, à condition de développer en parallèle une régulation volontaire et rigoureuse.
Références :
- Floridi, L., & Taddeo, M. (2016). What is data ethics? Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 374(2083), 20160360.
- Ienca, M., & Andorno, R. (2017). Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy, 13(1), 5.
- Ohm, P. (2010). Broken promises of privacy: Responding to the surprising failure of anonymization. UCLA Law Review, 57(6), 1701-1777.
- Vayena, E., & Tasioulas, J. (2016). The ethics of personalized medicine: New challenges and opportunities. Journal of Medical Ethics, 42(8), 451-454.