1. Introduction
1. La proposition de résolution
(
Doc. 14814) que j’ai déposée le 23 janvier 2019 et sur laquelle
se fonde le présent rapport a été renvoyée en commission le 12 avril
2019. La commission m’a ensuite nommé rapporteur le 29 mai 2019.
2. Cette proposition rappelait que l’ordinateur avait toujours
été présenté comme un progrès pour l’humanité, raison pour laquelle
la connexion progressive entre le corps humain et des appareils
utilisant les technologies numériques n’avait guère suscité de débat.
Les appareils de ce type permettent aujourd’hui de connecter directement
le cerveau humain à un ordinateur. D’un côté, une telle connexion
peut avoir de précieuses applications médicales, rendre par exemple
à des personnes handicapées la faculté de parler ou de manipuler
des objets; de l’autre, elle pourrait permettre de lire, d’ajouter
ou de supprimer des informations dans le cerveau, mettant un terme
au dernier refuge de la liberté: la pensée.
3. À la suite de l’examen de ma note introductive par la commission
lors de sa réunion tenue à Berlin (Allemagne) les 14 et 15 novembre
2019, je me suis rendu en Californie (États-Unis d’Amérique) pour
une visite d’information du 25 au 27 février 2020. À l’Université
de Californie à Berkeley, j’ai rencontré le professeur Jack Gallant
(avec qui j’ai discuté des dernières évolutions de la technologie
d’imagerie cérébrale, notamment son utilisation pour reconstruire
des images visuelles à partir de l’activité neuronale), ainsi que
les professeurs Ehud Isacoff et Stuart Russel. À l’Université de
Californie à San Francisco, j’ai rencontré Josh Chartier, avec lequel
j’ai échangé sur l’utilisation de l’électrocorticographie et des
algorithmes d’apprentissage automatique par «réseau neuronal» pour
convertir l’activité neuronale décodée en parole de synthèse. Owen
Phillips, PDG de la start-up BrainKey, m’a parlé de son projet de
développement d’outils de diagnostic médical basés sur l’intelligence
artificielle (IA) pour analyser les scanographies d’imagerie à résonance
magnétique (IRM) d’une clientèle payante. José Carmena, PDG de la
start-up Iota Biosciences, m’a présenté les dispositifs de diagnostic
médical ultra-miniaturisés mis au point par son entreprise, parfois
décrits comme de la «poussière neuronale». À l’Université de Stanford,
j’ai rencontré le professeur Hank Greely, Alix Roger et Daniel Palanker; j’ai
parlé robotique et prothèses avec le professeur Oussama Khatib et
avec Shameek Ganguly; j’ai discuté des implants rétiniens artificiels
et des menaces technologiques avec le professeur E. J. Chichilnisky;
et j’ai échangé avec le professeur Nick Melosh sur les prothèses
auditives. Le professeur Byron Yu de l’Université Carnegie Mellon
m’a initié aux dernières découvertes en matière de technologie de
stimulation et d’empreinte neuronale, dont l’imagerie optique. Alan
Mardinly et Alex Feerst de Neuralink m’ont décrit leur technologie d’empreinte
neuronale. J’ai discuté avec Luc Julia, vice-président de l’innovation
chez Samsung, des applications qui permettent aux clients de se
connecter à la technologie. Enfin, j’ai abordé avec Greg Corrado, directeur
de recherche principal chez Google, la question de l’utilisation
de la technologie et les dérives possibles, en général et dans le
domaine de la santé en particulier. J’aimerais remercier toutes
ces personnes pour leur temps et leurs contributions, sans oublier
Emmanuel Lebrun-Damiens, consul général de France à San Francisco,
et ses collègues pour leur aide inestimable dans l’organisation
de ma visite.
4. J’avais également l’intention d’organiser une audition avec
des experts lors d’une réunion de la commission, mais la pandémie
de covid-19 a malheureusement rendu cela impossible. Je tiens à
remercier Marcello Ienca, président du Laboratoire de bioéthique,
éthique et politique de la santé, D-HEST, École polytechnique fédérale
de Zurich, Timothy Constandinou, directeur adjoint, Centre for Bio-inspired Technology,
Imperial College London, et David Winickoff, analyste principal
des politiques, Organisation de coopération et de développement
économiques (OCDE), d’avoir accepté de participer à l’audition initialement prévue
et de l’avoir remplacée par des contributions écrites au présent
rapport.
2. Technologies
5. L’histoire des neurotechnologies
est relativement récente. Le premier électroencéphalogramme (EEG) des
signaux électriques dans le cerveau d’un animal date d’à peine plus
d’un siècle; le premier EEG sur un être humain a été effectué en
1924. La première stimulation électrique directe du système auditif
humain a été réalisée en 1957. En 1965, un EEG a servi à composer
de la musique; en 1988, toujours par EEG, on a réussi à contrôler
les mouvements d’un robot. En 1997, la Food and Drug Administration
des États-Unis a autorisé le recours à la stimulation cérébrale
profonde (SCP, une méthode invasive – voir ci-dessous) pour traiter
le tremblement idiopathique et la maladie de Parkinson. Les progrès
se sont accélérés ces 20 dernières années, parallèlement à l’augmentation
exponentielle de la puissance des ordinateurs: en 2005, Matt Nagie
est devenu la première personne à contrôler une main artificielle
à l’aide d’une interface cerveau-machine (ICM); en 2013, un patient
de l’équipe de recherche BrainGate a contrôlé un membre artificiel
à l’aide de microélectrodes implantées dans son cerveau; et en 2018,
des chercheurs de Berkeley ont créé le plus petit stimulateur nerveux
du monde, un implant sans fil de la taille d’un grain de poussière
(surnommé précisément neural dust, «poussière
neuronale»). Les principales entreprises du domaine, comme Neuralink,
fondée par Elon Musk, ou Facebook Reality Labs, cherchent maintenant
à mettre au point des applications commerciales.
6. La technologie au cœur des interfaces cerveau-machine comporte
deux éléments: un appareil qui enregistre ou stimule l’activité
cérébrale, et un algorithme «décodeur» qui extrait les informations
de l’activité enregistrée ou crée un signal pour stimuler une activité.
Les technologies d’enregistrement et de stimulation peuvent être
non invasives (extra-crâniennes) ou invasives (intracrâniennes).
Outre l’EEG, les technologies d’enregistrement non invasives comprennent
l’imagerie par résonance magnétique fonctionnelle (IRMf) et la spectrométrie
fonctionnelle dans le proche infrarouge (NIRSf), qui enregistrent
l’activité neuronale en mesurant la circulation sanguine dans le
cerveau; les technologies de stimulation non invasives comprennent
la stimulation transcrânienne par courant continu (STCC) et la stimulation
magnétique transcrânienne (SMT), qui créent un courant électrique
dans le cerveau. Les technologies d’enregistrement invasives utilisées
dans les ICM comprennent l’électrocorticographie (EcoG) et les implants
corticaux, avec des électrodes placées directement sur le cortex
cérébral. À un stade plus expérimental, on trouve des dispositifs
plus perfectionnés encore: «poussière neuronale» (implants miniatures
sans fil ni batterie, pourvus de capteurs et de stimulateurs et
contrôlés par ultrasons), «dentelle neuronale» (minuscules électrodes
disposées le long de «fils» en polymère insérés («injectés») dans
le cerveau, développée par Neuralink) et «neuropixels» (autre type
de dispositif à plusieurs électrodes capable d’accéder simultanément
à de nombreuses régions du cerveau). Les technologies de stimulation
invasives sont par exemple la stimulation cérébrale profonde (SCP)
et la stimulation du nerf vague

.
7. Des progrès impressionnants se poursuivent dans tous ces domaines.
Par exemple, peu de temps avant mon arrivée en Californie, le scanner
cérébral «NexGen 7T MRI» a été installé à l’Institut de neurosciences
Helen Wills de l’Université de Berkeley, 7T faisant référence à
la puissance des aimants utilisés (7 teslas). Le NexGen 7T MRI est
un projet extrêmement coûteux (13,4 millions de dollars) et véritablement international
(l’appareil a été construit par Siemens, dont le siège est en Allemagne),
comme la plupart des travaux de recherche dans ce domaine. Le NexGen
7T MRI aura une résolution d’imagerie d’environ 0,4 mm, ce qui correspond
à l’échelle des structures des colonnes neuronales qui répondent
aux caractéristiques spécifiques du monde sensoriel. Si la résolution
spatiale devient ainsi moins limitée, la technologie IRM reste soumise
à d’importantes limitations sur le plan de la résolution temporelle:
alors que la fréquence de décharge neuronale est d’environ 100 par
seconde, un IRM l’enregistre au rythme d’environ une fois par seconde.
8. Malgré les progrès rapides récemment accomplis par les ICM
et la diversité des approches actuellement à l’étude, d’importants
obstacles empêchent toujours le développement d’applications plus
ambitieuses. Les dispositifs non invasifs sont incapables d’enregistrer
des activités détaillées au niveau cellulaire et ne peuvent servir
que pour des interfaces simples, à choix binaire. Aujourd’hui, toute
recherche plus poussée requiert une lourde intervention chirurgicale.
Les dispositifs invasifs présentent eux-mêmes de sérieuses limites,
dont la dégradation progressive de la qualité des enregistrements
issus des implants. Il faut également transmettre les données depuis
l’intérieur du crâne, soit par un fil traversant la boîte crânienne,
soit par un système sans fil, qui pose lui-même certains problèmes.
À l’heure actuelle, les meilleurs dispositifs invasifs à plusieurs électrodes
enregistrent via un millier de canaux au maximum et suivent des
centaines de neurones dans une seule zone cérébrale; une ICM plus
généraliste exigerait des échantillons provenant de dizaines, voire
de centaines de milliers de neurones, potentiellement répartis dans
plusieurs régions du cerveau. Elle créerait donc de nouveaux défis
en matière d’informatique et d’analyse des données. Il faut ajouter
à cela les problèmes d’ingénierie et de chirurgie associés à la
fabrication, et à l’implantation, de structures complexes en trois
dimensions intégrant des dispositifs électroniques. Mais surtout,
«nous ne comprenons pas assez bien la répartition des représentations
d’informations et leur traitement par le néocortex pour pouvoir
estimer, autrement que de façon rudimentaire, ce qu’une séquence
d’activités particulière peut bien "vouloir dire"

».
9. Sur le plan technologique du moins, certains chercheurs anticipent
des progrès significatifs dans les années à venir, grâce à ce qu’ils
nomment la «nanorobotique neuronale». Introduits dans le système
sanguin du sujet, des dispositifs microscopiques franchiraient si
nécessaire la barrière hématoencéphalique pour localiser des types
spécifiques de cellules cérébrales ou de structures cellulaires
et s’y fixer. Ils enregistreraient et/ou stimuleraient alors l’activité
neuronale pour «offrir un système
in
vivo non destructeur, en temps réel, sûr, de longue durée
et pratiquement autonome, capable de réaliser la première ICM fonctionnelle»
– en d’autres termes, de surmonter les obstacles évoqués ci-dessus.
«De tels systèmes d’ICM humains pourraient révolutionner les communications
homme-machine et ouvrir la voie à d’importantes améliorations cognitives chez
l’être humain […]

».
10. Ces propositions ne sont pas aussi farfelues qu’il y paraît.
Sur des souris, des nanoparticules électromagnétiques ont déjà été
utilisées pour contrôler des zones cérébrales prédéfinies, et des
points quantiques de carbone fluorescents ont permis de cibler certaines
cellules cérébrales pour en obtenir une image. Un cerveau humain
a été relié à la moelle épinière d’un rat anesthésié; un autre cerveau
humain a guidé une blatte le long d’un circuit en forme de S via
une stimulation électrique de ses antennes. Plusieurs cerveaux ont
été connectés pour accomplir des tâches coopératives: on a constaté
que quatre cerveaux de rats interconnectés réussissaient des opérations
de calcul mieux qu’un seul cerveau. La connexion de trois cerveaux
humains, appelée «BrainNet», a permis à trois sujets humains de
prendre des décisions collaboratives via une communication non invasive
de cerveau à cerveau (par EEG et SMT). Selon l’étude de la Royal
Society, les neurotechnologies telles qu’on les imagine à l’avenir
«sont encore très loin de nous, mais non totalement impossibles.
N’oublions pas à quel point un alunissage ou l’internet auraient
paru futuristes et lointains en 1950, alors que beaucoup de foyers
n’avaient pas encore le téléphone […]».
11. Les progrès des technologies ICM ont également été fortement
stimulés par le développement rapide de l’IA observé ces dix dernières
années. L’analyse des images du cerveau – en particulier celles
obtenues par IRM – par les algorithmes d’apprentissage automatique
a renforcé notre compréhension de la structure fonctionnelle du
cerveau et notre faculté à décoder l’activité neuronale pour reconstruire
les schémas de pensée qu’elle représente. Cela a permis aux chercheurs
de reconstruire des images à partir de scanographies IRM de personnes
regardant des bandes-annonces de films (ce que faisaient le professeur
Gallant et son équipe dès 2011) ou de convertir des signaux cérébraux
captés par ECoG en parole de synthèse (ce que fait M. Chartier –
voir ci-dessous). Dans ce domaine comme dans d’autres, du diagnostic
médical aux véhicules autonomes, les progrès de l’IA ont été déterminants.
En outre, vous trouverez en annexe du présent rapport des informations
générales sur l’IA, dont une description et un examen des principes
éthiques applicables.
3. Applications
12. Comme indiqué plus haut, les
premières applications des ICM consistaient à contrôler des prothèses
ou des robots simples à l’aide de signaux cérébraux

.
Les progrès des capteurs et de la puissance informatique ont rendu
possibles de nouvelles applications, plus complexes.
13. La recherche sur les troubles psychologiques et les troubles
neurologiques gériatriques, par exemple, attire des financements
considérables. Il n’est donc pas surprenant que la plupart des recherches
actuelles sur les neurotechnologies concernent les applications
médicales. Josh Chartier, de l’Université de Californie à San Francisco,
m’a parlé du projet sur lequel il travaille pour détecter les schémas
d’activité neuronale associés au contrôle du tractus vocal pendant
la parole. Les signaux ainsi obtenus peuvent ensuite être décodés
et utilisés pour produire une «parole de synthèse». Cette approche
permet de contourner l’immense difficulté qui consiste à identifier
l’activité neuronale associée à des mots spécifiques (par rapport
à l’activité associée à l’intention de prononcer ces mots). La recherche
est menée sur des patients atteints d’épilepsie sévère, sur lesquels
on a placé un «réseau neuronal» destiné à surveiller les crises
et qui ont accepté que ce dispositif soit aussi utilisé dans le
cadre de cette recherche. Très intrusive, cette neurotechnologie
de synthèse vocale serait réservée aux personnes se trouvant dans
des situations extrêmement difficiles, comme le syndrome d’enfermement.
M. Chartier a admis la possibilité qu’une technique puisse fonctionner
avec des personnes encore capables de parler, mais pas avec des
personnes ne pouvant plus parler depuis longtemps et ne présentant
peut-être plus les mêmes schémas détaillés et cohérents d’activité
neuronale. Il a toutefois suggéré qu’avec de la pratique, les patients
atteints du syndrome d’enfermement pourraient parvenir à «ré-entraîner» leur
cerveau pour produire des schémas d’activité susceptibles d’être
décodés et utilisés pour générer une «parole de synthèse». L’idée
première – obtenir un langage articulé à partir de l’activité neuronale –
illustre à quel point la compréhension du fonctionnement du cerveau
a progressé, grâce à l’amélioration de la technologie qui permet
une lecture du cerveau. La nature intrusive de cette technologie
et le recours à un effort mental conscient pour contrôler le tractus
vocal peuvent laisser penser que certaines préoccupations éthiques –
ayant trait à la vie privée et à l’intégrité mentale – sont ici
moins prépondérantes.
14. L’entreprise de José Carmena, Iota Biosciences, développe
des dispositifs bioélectroniques sans batterie fonctionnant par
ultrasons et ne mesurant que quelques millimètres – on les appelle
«poussière neuronale» –, capables de se connecter directement au
système nerveux central. Ces dispositifs peuvent collecter des données
précises ou stimuler directement les nerfs et pourraient être utilisés
pour diagnostiquer et traiter des affections allant de l’arthrite
aux maladies cardiovasculaires. Iota cherche à réduire la taille
de ses dispositifs à l’échelle inframillimétrique, ce qui pourrait
à terme permettre leur utilisation dans la technologie d’interface
cerveau-machine.
15. Certaines entreprises fournissent déjà des services ou des
produits directement aux consommateurs. BrainKey, qui m’a été présenté
par le PDG de l’entreprise, Owen Phillips, est en train de constituer
une base de données de scanographies IRM obtenues principalement
à partir de banques de données publiques (comme UK Biobank au Royaume-Uni)
et d’autres bases provenant de clients privés. Aujourd’hui, le service proposé
par BrainKey est essentiellement descriptif/analytique et il contient
des statistiques et un modèle 3D imprimé du cerveau de l’individu.
L’objectif est de développer des outils de diagnostic qui fonctionnent
grâce à l’IA. Si M. Phillips est opposé au fait d’autoriser les
employeurs à imposer aux candidats à un poste qu’ils passent un
IRM qui serait ensuite analysé pour tenter de prédire leurs performances
professionnelles futures, il admet que la technologie pourrait être
utilisée à cette fin.
16. L’entreprise canadienne InteraXon Inc. commercialise un multi-capteur
EEG appelé Muse, destiné à aider les utilisateurs pendant la pratique
de la méditation en enregistrant leur activité neuronale (ainsi
que leur immobilité physique via un accéléromètre et leur rythme
cardiaque via un moniteur optique de fréquence cardiaque). Ce dispositif
s’accompagne d’une application pour smartphone qui fournit aux utilisateurs
des informations sur leur pratique et leurs progrès. Les utilisateurs
sont informés du fait qu’ils conservent le contrôle total des données
EEG générées lors de l’utilisation de leur dispositif Muse, mais
qu’ils peuvent participer à un programme de recherche qui partage
les données EEG (et d’autres capteurs Muse) anonymisées avec des «tiers
impliqués dans des recherches liées à l’amélioration de la compréhension
scientifique du cerveau/corps, ou à l’amélioration des produits
et/ou de l’offre de meilleurs services et expériences»

.
17. OpenBCI adopte une approche différente, en vendant une plateforme
matérielle
open source (qui comprend
des EEG, des EMG pour la détection de l’activité musculaire, des
ECG pour la fonction cardiaque et toutes sortes d’autres composantes
associées) qui peut être utilisée avec des logiciels libres et gratuits
pour divers projets. Comme l’indique le site internet d’OpenBCI,
«nous travaillons à exploiter la puissance du mouvement
open source pour accélérer l’innovation
éthique des technologies d’interface homme-machine»

. Cela peut s’apparenter au modèle
de «démocratisation» du développement neurotechnologique proposé
par M. Ienca (voir ci-dessous).
18. Des recherches financées par Facebook ont utilisé l’ECoG pour
comprendre, uniquement à partir de signaux neuronaux, à la fois
ce que des sujets entendaient et ce qu’ils avaient l’intention de
dire. D’après leurs auteurs, cela augure des «systèmes vocaux neuroprothétiques
pour les personnes incapables de communiquer»

ou,
comme l’a annoncé sur Twitter Andrew Bosworth, vice-président de
Facebook, «un appareil portable qui permet de taper du texte juste
en y pensant», commentaire qui révèle peut-être mieux encore l’intérêt
commercial de Facebook pour cette technologie. Si les recherches
menées par M. Chartier, par exemple, ont déjà donné des résultats
prometteurs grâce à la technologie invasive ECoG, il est difficile
de voir comment des dispositifs «portables» non invasifs pourraient
être aussi efficaces, du moins dans un futur proche.
19. Les enjeux commerciaux sont aussi présents dans ce qu’on appelle
le «neuromarketing», «domaine récent et interdisciplinaire qui dépasse
les frontières traditionnelles entre neurosciences, neuro-économie
et recherches en marketing […], dont le premier but est d’affiner
les stratégies de marketing pour améliorer les ventes»

. Une étude
a montré que chez les sujets qui préféraient la saveur du Pepsi
à celle du Coca-Cola lors de tests en aveugle, une zone cérébrale,
le putamen ventral, était particulièrement activée; lorsque les sujets
connaissaient la marque, presque tous préféraient le Coca, et c’est
une autre partie du cerveau qui s’activait davantage (le cortex
préfrontal, associé à la conscience de soi et qui, dans ce contexte,
paraissait l’emporter sur les papilles de ceux qui préféraient auparavant
le Pepsi). Une meilleure compréhension de ce mécanisme pourrait
permettre aux publicitaires de développer, et de tester, des stratégies
de marketing ciblant des mécanismes subconscients particulièrement
sensibles aux images ou à la marque, et non aux qualités intrinsèques
du produit.
20. Les neurotechnologies et les ICM pourraient présenter un intérêt
particulier pour les procédures judiciaires et pénales. «Les neurosciences
commencent à être utilisées pour tenter d’évaluer de manière objective
des aspects par nature subjectifs. Distinction entre mensonge et
vérité, capacités mentales, souffrance, fiabilité des souvenirs
constituent des domaines d’étude intéressants pour la justice civile
et pénale. Ces tentatives de lecture de l’esprit sont en train,
théoriquement, de devenir possibles»

. Certaines de ces technologies sont
même disponibles sur le marché, bien que leur application aux procédures
judiciaires ne soit pas encore acceptée : par exemple, les entreprises
No Lie MRI et Cephos commercialisent des produits utilisant l’IRMf
pour estimer si une personne dit ou non la vérité. Par ailleurs,
une étude suggère que l’activation du cortex cingulaire antérieur,
associé au contrôle des impulsions, laisserait présager une nouvelle
arrestation (récidive) des délinquants

.
De tels usages soulèveraient de sérieuses questions de respect des
droits et des garanties procédurales.
21. Les recherches sur les neurotechnologies ICM visent des objectifs
non seulement civils et commerciaux, mais aussi sécuritaires et
militaires. La DARPA (Defense Advanced Research Projects Agency,
États-Unis) est particulièrement active dans ce domaine. La plupart
de ses travaux poursuivaient à l’origine des objectifs médicaux
généraux, l’accent étant cependant mis sur les aspects les plus
pertinents pour les forces armées. Les programmes «Revolutionising
prosthetics» et «Reliable neural interface technology» (RE-NET),
par exemple, visaient à accélérer le développement de prothèses
contrôlées par ICM (neuroprothèses) ; le programme «Reorganisation
and plasticity to accelerate injury recovery» (REPAIR) cherchait
à rétablir les fonctions neuronales et comportementales après une
atteinte du système nerveux ou une privation sensorielle.
22. D’autres recherches financées par la DARPA peuvent s’avérer
plus délicates sur le plan éthique. Le programme «Restorative encoding
memory integration neural device» (REMIND) a développé une technologie susceptible
d’accroître, ou de réduire, la capacité d’un sujet à garder des
événements en mémoire. «Accelerated learning» visait à «révolutionner
l’apprentissage dans l’environnement militaire» (adresse au tir, par
exemple). «Narrative networks» (N2) consistait à détecter l’activité
cérébrale sous l’influence des récits, pour «accélérer et améliorer
la communication des informations dans les opérations d’information
à l’étranger», et à créer des technologies ICM «plaçant dans la
même boucle celui qui écrit l’histoire et celui qui en prend connaissance,
les réactions neuronales à un stimulus narratif devenant capables
d’influer sur le récit». Cela ouvrirait la voie à «des récits optimaux,
adaptés à un individu ou à un groupe spécifique». Le programme «Neurotechnology
for intelligence analysts» (NIA) visait à développer de nouvelles
ICM non invasives pour rendre plus efficaces et productives les
analyses d’images, grâce à la détection des réactions neuronales
lors de la perception d’un «point d’intérêt» sur une image. Via
une approche similaire, «Cognitive technology threat warning system»
(CT2WS) cherchait à renforcer la capacité, lors de la surveillance
d’un site, à détecter les menaces et à y réagir. La DARPA travaille
également à la mise au point d’un casque d’EEG à faible coût, avec
pour but de «réunir les efforts de collecte des données au service
de la neuro-imagerie». Plus récemment, le programme «Systems-based
neurotechnology for emerging therapies» (SUBNETS) a été lancé dans
l’espoir de produire de nouveaux implants d’enregistrement et de
stimulation de l’activité neuronale, en vue de traiter les troubles
neuropsychiatriques et neurologiques, notamment parmi les anciens
soldats souffrant de troubles mentaux. «Restoring active memory»
(RAM) vise à rendre la mémoire à des patients souffrant de maladies
incurables entraînant des défaillances à ce niveau. Signe peut-être
d’une prise en compte des éventuels problèmes d’éthique, la DARPA
aurait travaillé à ces deux derniers programmes en étroite collaboration
avec la Food and Drug Administration

. Les experts que j’ai rencontrés en Californie estiment
que les projets financés par la DARPA sont encore loin d’atteindre
les objectifs annoncés, lesquels ont souvent été délibérément exprimés
en termes extrêmement ambitieux, avec l’assurance d’aller au-delà
de ce qui est actuellement possible et dans l’espoir qu’au minimum
quelques progrès utiles seront toutefois réalisés.
23. La mission de Neuralink, telle que la présente Elon Musk,
est d’atteindre «une forme de symbiose avec l’intelligence artificielle»;
M. Musk est en effet convaincu que l’intelligence artificielle constitue
«notre plus grande menace existentielle», «peut-être plus dangereuse
que les armes nucléaires». On trouve les mêmes préoccupations chez
les tenants de la «nanorobotique neuronale» envisagée comme un moyen
de connecter le cerveau humain au cloud: elle pourrait «être bénéfique
pour l’humanité en contribuant à réduire les sérieux risques existentiels
posés par l’émergence d’une intelligence artificielle généralisée.
[La nanorobotique neuronale y parviendrait] en permettant la création
de technologies d’augmentation de l’humain qui viendraient contrebalancer
ces risques […]»

24. Alan Mardinly, directeur de recherche chez Neuralink, m’a
expliqué que l’objectif de «symbiose» d’Elon Musk était loin de
se concrétiser, de nombreuses inconnues techniques et scientifiques
restant à régler avant d’y parvenir. L’objectif immédiat de l’entreprise
consiste à produire des dispositifs médicaux, notamment pour aider
les patients souffrant de lésions de la moelle épinière. Comme la
technologie de «dentelle neuronale» intra-corticale de Neuralink
implique des milliers d’électrodes, disposées le long de «fils»
suspendus à une puce de 4x4 mm, elle offre une résolution suffisante
pour contrôler les dispositifs. Pour M. Mardinly, la dentelle neuronale
est la meilleure technologie disponible à l’heure actuelle pour
l’interface cerveau-machine, même si sa nature invasive signifie
que le spectre d’applications sera forcément limité. Il la juge
néanmoins préférable au réseau d’électrodes standard Utah Array:
la dentelle neuronale utilise des électrodes flexibles (par opposition
aux électrodes rigides de l’Utah Array) et est donc à la fois moins
perturbatrice pour le tissu cérébral et plus durable, car elle ne
provoque pas de cicatrices localisées. Elle offre en outre une meilleure
résolution, avec 8 à 16 électrodes par tige très étroite (contre
une seule électrode sur une tige relativement épaisse pour l’Utah
Array). À terme, la dentelle neuronale pourrait être utilisée pour
implanter jusqu’à 100 000 électrodes, bien que cela implique de
recourir à un système d’insertion intégré et automatisé. En résumé,
Neuralink vise à créer une technologie sûre, stable et évolutive.
Neuralink travaille déjà avec la Food and Drug Administration des
États-Unis sur une «étude préliminaire de faisabilité» qui porte
davantage sur les questions de sécurité – telles que la cybersécurité/le
piratage, les implications en matière de données/confidentialité
et le contrôle des entrées – que sur les problématiques éthiques.
25. Toujours en envisageant l’avenir (possible), les partisans
de la nanorobotique neuronale imaginent de nombreuses applications
à cette technologie, en conjonction avec l’infrastructure mondiale
du «cloud»: réalité virtuelle totalement immersive et impossible
à distinguer de la réalité; réalité augmentée, des informations
sur le monde réel étant directement surimposées sur la rétine; interprétation
en direct de langues étrangères, accès à de nombreuses formes d’informations
en ligne, et même «expérience totalement immersive et en temps réel
d’épisodes de la vie de tout volontaire humain sur la planète, via
une "observation transparente" non intrusive».
26. Dans sa contribution écrite au présent rapport, M. Winnickoff
présente la taxonomie des neurotechnologies qui figure ci-dessous
(N.B. j’ai légèrement modifié sa proposition à des fins de simplicité
et de pertinence). Si «l’interface cerveau-machine» semble être
en relation avec la fonction primaire d’une technologie particulière,
elle englobe évidemment aussi les fonctions de lecture et d’intervention/modulation. Comme
nous l’avons déjà indiqué dans ce rapport, les technologies ICM
peuvent être utilisées dans tous les domaines cités.
- Domaines d’utilisation, entre
autres:
- clinique/médical (neurologie/neurochirurgie,
psychiatrie, rééducation, traitement de la douleur)
- activité professionnelle (formation, performance)
- militaire (renseignements/interrogatoires, armes/perfectionnement
des combattants)
- grand public (utilisation directe par le consommateur/bricolage,
éducation, bien-être/mode de vie/loisirs)
- Fonction primaire de la technologie, dont:
- déchiffrage/lecture du cerveau
(imagerie, modélisation/cartographie)
- fonction d’intervention/modulation cérébrale
- «construction» du cerveau (interface cerveau-machine,
neuroprothèses)
- fonction dérivée (inspirée par le cerveau, par exemple
les réseaux neuronaux artificiels)
- Objectifs de santé – prévenir, réparer, remplacer, augmenter,
etc.
27. Comme le résume l’étude de la Royal Society:
«Des implants, casques, bandeaux
ou autres appareils pourraient nous aider à mieux mémoriser, à apprendre
plus vite, à parvenir plus vite à prendre de meilleures décisions,
à résoudre des problèmes de manière objective […] Relier des cerveaux
humains à des ordinateurs, en exploitant la puissance de l’intelligence
artificielle, nous permettrait de fusionner l’intelligence émotionnelle
des humains et leur capacité à prendre des décisions avec la puissance
informatique de traitement des mégadonnées, créant une nouvelle
forme d’intelligence collaborative. Un certain degré de télépathie
deviendrait possible: nous pourrions parler non seulement sans parler,
mais aussi sans mots, en accédant aux pensées de l’autre au niveau
conceptuel […] On pourrait communiquer de cerveau à cerveau non seulement
des pensées, mais aussi des expériences sensorielles […] Grâce à
des améliorations physiques et mentales, les membres de la police
ou de l’armée pourraient protéger la population en voyant mieux
dans l’obscurité, en ressentant des présences et en réagissant plus
vite [...]»
28. Il convient néanmoins de garder à l’esprit que la technologie
actuelle est très loin d’atteindre la quasi-totalité de ces objectifs,
du moins pas de manière concrètement utile ou inquiétante. Sans
amélioration significative de notre compréhension de la structure
et du fonctionnement du cerveau, les possibilités les plus spectaculaires
de l’ICM resteront purement spéculatives. Certains experts doutent
sérieusement du potentiel des neurotechnologies comme base d’interaction
avec les ordinateurs. Greg Corrado (Google) fait valoir que le système
nerveux humain a évolué pour interagir avec le monde extérieur en
utilisant les sens naturels, qui resteraient la principale interface
avec les ordinateurs: en particulier, les yeux et les oreilles pour
recevoir des informations, et le bout des doigts et les voies vocales
pour les transmettre. Les améliorations de l’interface homme-machine
se produiraient donc du côté de l’ordinateur, comme avec le traitement
de la parole naturelle (c’est-à-dire la capacité d’un ordinateur
à «comprendre» la parole humaine). Selon lui, les possibilités les
plus prometteuses pour l’interface bioélectronique résident dans
la stimulation directe des nerfs musculaires et des implants cochléaires
et rétiniens pour entrer des informations (stimuler), et dans celle
du cortex moteur pour lire des informations. D’après M. Corrado,
l’état actuel des technologies ICM ne comporte aucun risque éthique –
un point de vue partagé par un grand nombre de personnes que j’ai
rencontrées en Californie. Cela dit, son utilisation abusive pourrait
soulever des préoccupations éthiques, par exemple si la technologie
IRMf était utilisée pour prévoir la personnalité, les propensions
criminelles ou les capacités professionnelles des individus – ce
que M. Corrado considère comme une sorte de phrénologie, une théorie
discréditée selon laquelle les traits de personnalité et les capacités
intellectuelles d’un individu peuvent être déterminés en mesurant
les caractéristiques physiques de son crâne.
4. Préoccupations
29. L’état actuel des technologies
ICM ne suscite peut-être pas de préoccupations immédiates qui dépassent
manifestement la portée des cadres éthiques existants (notamment
l’éthique médicale et les réglementations relatives à la protection
de la vie privée et des données), mais le rythme de leur évolution
reste supérieur aux préoccupations éthiques et le seuil de rupture
qui pourrait amener à un décrochage du droit est proche. La marche
du progrès technologique est inexorable et certains acteurs chercheront
inévitablement à développer des applications qui posent sérieusement
problème sur le plan éthique, que ce soit sur la base de technologies
futures ou d’usages de technologies existantes. Il s’agit tout simplement
de prendre des précautions pour anticiper ce qui pourrait arriver
à l’avenir et pour fixer des limites qui détournent la recherche des
domaines vraisemblablement néfastes ou dangereux et l’orientent
vers des applications positives qui ne menacent ni les droits individuels
ni les sociétés démocratiques. Certaines de ces questions éthiques
n’entrent pas dans le champ du présent rapport, comme le fait qu’une
connexion établie avec un cerveau «modifie inévitablement ce cerveau»

.
Je privilégierai ici les préoccupations liées aux droits de l’homme,
fondées sur la volonté d’assurer le respect de la dignité humaine
et des caractéristiques essentielles de l’être humain, envisagé
comme un agent moral autonome.
30. Accéder aux processus neuronaux qui sous-tendent la pensée
consciente, c’est accéder à un niveau du soi qui, par définition,
ne peut être consciemment ni filtré, ni dissimulé – la pire atteinte
possible à la vie privée. Même les technologies actuelles de neuromarketing,
associées à la diffusion massive de messages ciblés via la publicité
et les réseaux sociaux, pourraient avoir un effet dévastateur sur
la liberté de choix et les processus démocratiques. Les ICM pourraient
servir à créer des détecteurs de mensonges très perfectionnés, jugés
si fiables que leurs résultats pourraient être acceptés comme preuves
dans les procédures pénales. Cela porterait cependant atteinte à
la protection contre le fait de contribuer à sa propre mise en accusation,
puisque les suspects concernés ne pourraient plus refuser de livrer
des informations lors des interrogatoires. Dans le même temps, les
ICM pourraient servir à créer de faux souvenirs ou à modifier ou
supprimer des souvenirs réels, si bien que les témoignages humains
perdraient leur caractère de preuves fiables.
31. Les recherches «à double usage», comme celles que finance
la DARPA (voir ci-dessus), inquiètent particulièrement. Ce terme
désigne à la fois l’application de technologies civiles à des fins
militaires, policières/judiciaires ou de sécurité nationale, et
la possibilité que des acteurs, y compris non étatiques, détournent certaines
technologies à des fins malveillantes. À cet égard, «le fait que
ces technologies dépendent de l’informatique et du numérique les
expose également aux cyberattaques»

,
et les conséquences pour l’individu deviendront d’autant plus redoutables
que les technologies ICM, qui affectent les processus neuronaux,
gagneront en complexité, en puissance et en précision.
32. Se posent également des questions d’accès et d’équité. Les
risques apparaissent aujourd’hui que l’accès à de puissantes améliorations
cognitives à des fins non cliniques puisse dépendre du niveau de richesse –
certains pourront se les offrir, d’autres non. Ainsi pourraient
apparaître deux catégories d’êtres humains, les «augmentés» et les
autres. Ces technologies seraient susceptibles également de laisser le
choix des réalisations possibles et de bénéficiaires ciblés au marché
non réglementé ou aux intérêts de gouvernements potentiellement autocratiques.
33. Enfin, «sur un plan plus philosophique, certains craignent
que l’usage généralisé des interfaces neuronales ne place les décisions
humaines sous la coupe d’un “neuro-essentialisme” qui réduirait
chaque personne à son cerveau, et nos choix à de simples séries
de processus neurobiologiques; ce serait la fin de la liberté d’action
individuelle et de la responsabilité morale […]»

. La question se pose, en effet: à quoi
sert de développer les ICM pour préparer l’humanité aux dangers
d’une IA généralisée si, ce faisant, nous abolissons des qualités
essentielles à chaque existence humaine?
34. Le professeur Rafael Yuste de l’Université Columbia à New
York a exprimé ces préoccupations au nom du «groupe Morningside»,
qui réunit 25 experts des neurotechnologies et des domaines connexes.
Dans un discours prononcé en 2019 lors de la réunion de l’Union
interparlementaire à Doha (Qatar), le professeur Yuste a décrit
comment une éventuelle mauvaise utilisation et l’absence de réglementation
pourraient entraîner des problèmes dans les cinq domaines suivants

.
- Identité
personnelle: «plus nous sommes connectés au réseau par des dispositifs
ou des interfaces cerveau-machine, plus nous diluons notre propre
identité. La dépendance que nous constatons actuellement à l’égard
de nos appareils est un avant-goût de ce qui nous attend: à mesure
que nous augmentons la bande passante de notre connexion au réseau
en utilisant des interfaces cerveau-machine non invasives, nous
nous y dissolvons de plus en plus.»
- Libre arbitre: «si nous utilisons des informations et
des algorithmes extérieurs pour prendre des décisions, nous renonçons
à notre propre liberté d’action. Qui prend la décision? […] que
se passera-t-il lorsque nous aurons un GPS de vie qui nous conseillera
sur ce que nous devons faire à tout moment?»
- Respect de la vie privée sur le plan mental: «si les données
du cerveau sont accessibles et déchiffrables, alors nos processus
mentaux et nos pensées seront accessibles à autrui. Même les pensées
dont nous n’avons pas conscience – le subconscient – pourraient
être décryptées. Nous pensons que les données du cerveau doivent
être protégées avec la même rigueur législative que les organes.
En fait, nos données cérébrales sont un organe – pas un organe physique,
mais un organe mental – et il devrait être interdit d’en faire commerce,
car elles représentent ce que nous sommes.»
- Augmentation cognitive, y compris l’apprentissage augmenté
qui «peut permettre à certains groupes sociaux dans certains pays
de renforcer leurs capacités mentales et physiques en leur donnant
accès à des algorithmes externes et à la robotique pour la vie quotidienne.
Nous pensons que la garantie du principe de justice dans le développement
et le déploiement de ces technologies devrait assurer une égalité
d’accès et que leur utilisation à des fins militaires devrait être
strictement encadrée.»
- Protection contre les préjugés et la discrimination: «comme
les algorithmes utilisés en IA fonctionnent souvent selon des préjugés
implicites, ces technologies pourraient accidentellement implanter
ces préjugés dans nos processus cérébraux. Il serait terrible de
réduire à néant nos progrès vers l’égalité et la justice en diffusant
des préjugés grâces aux nouvelles technologies.»
5. Réactions
35. Le monde de la recherche s’accorde
largement sur le besoin d’anticiper la réglementation des neurotechnologies
émergentes, dont les ICM, à travers une approche «précoce et fréquente»,
comme le préconise l’étude de la Royal Society. Les acteurs industriels
soutiennent également cette approche. Pour citer Mark Chevillet,
directeur de recherche aux Facebook Reality Labs, «nous ne pourrons
ni anticiper, ni résoudre seuls toutes les questions éthiques soulevées
par ces technologies. Ce que nous pouvons faire, c’est surveiller leurs
progrès et informer la population lorsqu’elles dépassent ce qu’on
croyait possible jusqu’alors. La conception neuroéthique est l’un
des piliers de notre programme: nous voulons être transparents sur
nos domaines de travail, pour que les gens puissent nous dire ce
que ces technologies ont d’inquiétant pour eux»

. D’autres plaident pour une
coordination entre les recherches en neuroéthique et dans les domaines voisins,
comme l’IA – ces disciplines, ayant en commun certaines technologies,
devraient se voir appliquer une approche commune des principes éthiques

. Certains avancent des arguments en faveur
d’un «cadre de neurosécurité […] conçu et mis en œuvre pour assurer
une sécurité maximale sur tout le continuum allant de la recherche
scientifique à la société (et inversement) […], particulièrement
axé sur l’anticipation et la détection rapide des menaces propres
aux neurotechnologies, surtout celles qui concernent l’aspect mental
[…]. [Ce cadre] devrait inclure, au minimum, trois grands niveaux
de garanties: interventions réglementaires adaptées, codes de déontologie
et activités de sensibilisation»

.
36. En 2013, le Conseil Nuffield sur la bioéthique a publié un
rapport détaillé intitulé «Novel neurotechnologies: intervening
in the brain». Ce rapport, qui traite principalement (mais pas exclusivement) des
applications médicales et des neurotechnologies, note que «le cerveau
a un statut spécial dans la vie humaine qui le distingue des autres
organes. Son fonctionnement sain joue un rôle central dans le fonctionnement
de notre corps, dans nos capacités d’agir librement et de façon
autonome, dans la conception que nous avons de nous-mêmes et de
nos relations avec les autres – et donc dans notre aptitude à mener
une vie épanouie. Cela signifie que les nouvelles neurotechnologies
que nous examinons dans le présent rapport, qui toutes interviennent
dans le cerveau, suscitent des préoccupations éthiques et sociales
que ne font pas naître dans la même mesure d’autres technologies
biomédicales». Le rapport propose un cadre éthique établi en trois
étapes:
- Les principes fondamentaux
de bienfaisance et de précaution découlant «d’une tension entre
le besoin et l’incertitude». Alors que les troubles cérébraux graves
génèrent une grande souffrance, il n’existe pas d’(autres) interventions
efficaces. Dans le même temps, les avantages et les risques des neurotechnologies
ne sont pas encore pleinement compris du fait de leur nouveauté
et d’une compréhension incomplète du fonctionnement du cerveau lui-même.
«Le statut particulier du cerveau fournit donc à la fois une raison
de faire preuve de bienfaisance en intervenant lorsqu’une blessure
ou une maladie provoque des troubles cérébraux, et une raison de
nous montrer prudents lorsque nous ne sommes pas certains des effets
d’une telle intervention.»
- Les implications des principes de bienfaisance et de précaution
doivent être examinées à la lumière d’une série de cinq «intérêts»:
la sécurité, les conséquences (involontaires) sur la vie privée,
l’autonomie (tant dans les décisions relatives au traitement que
dans le contexte plus large de la vie des patients), l’équité dans
l’accès aux nouveaux traitements et la confiance dans les nouvelles
technologies.
- Le rapport propose par ailleurs trois «vertus» pour encadrer
les pratiques des acteurs dans ce domaine, à savoir l’inventivité
(que ce soit dans l’innovation ou dans l’élargissement de l’accès),
l’humilité (admettre les limites de la connaissance et de nos capacités
à utiliser la technologie pour soulager les troubles cérébraux)
et la responsabilité (par le recours à des pratiques de recherche
solides et en s’abstenant de toute allégation exagérée ou prématurée
à propos des neurotechnologies).
37. Des approches similaires se retrouvent dans d’autres propositions
de cadres éthiques visant à réglementer l’ICM et les autres neurotechnologies.
Une équipe de chercheurs, par exemple, a proposé une liste de «Principes
directeurs de la neuroéthique»:
i. D’abord
et avant tout, évaluer les aspects de sécurité.
ii. Anticiper les enjeux liés à la capacité, à l’autonomie
et à la liberté d’action.
iii. Protéger le caractère privé et confidentiel des données
neuronales.
iv. S’attaquer aux éventuels usages malveillants des neurotechnologies
et des outils neuroscientifiques.
v. Agir avec prudence au moment d’appliquer les neurotechnologies
et les outils neuroscientifiques à des usages médicaux ou non médicaux.
vi. Recenser et traiter les inquiétudes spécifiques de la
population au sujet du cerveau.
vii. Encourager l’éducation du public et le dialogue.
viii. Agir avec équité et partager les avantages tirés de la
recherche en neurosciences et des technologies qui en résultent
.
38. La question du «double usage des technologies cognitives»
(dont l’ICM) a été abordée par Marcello Ienca dans un article de
2018

. Notant que les «technologies cognitives
ont le potentiel d’accélérer l’innovation technologique et d’apporter
des avantages considérables aux individus et aux sociétés», M. Ienca considère
que «du fait de leur double usage possible, elles peuvent être cooptées
par des acteurs étatiques et non étatiques à des fins qui ne sont
pas bénignes, notamment la cybercriminalité, le cyberterrorisme,
la cyberguerre et la surveillance de masse. À la lumière de la crise
démocratique mondiale récente, de la militarisation accrue de l’infosphère
numérique et de la potentialisation simultanée des technologies
cognitives (TC), il importe de concevoir de manière proactive des
stratégies susceptibles d’atténuer les risques émergents et de conformer
l’avenir des TC aux principes de base de la démocratie libérale
dans des sociétés libres et ouvertes».
39. M. Ienca propose donc une «démocratisation des TC», en adoptant
des éléments des deux extrêmes de la gouvernance et de la réglementation,
à savoir le pur laisser-faire et la réglementation stricte. La «démocratisation»
partage avec l’approche réglementaire stricte l’idée que la nouveauté
des TC en fait un domaine relativement récent et encore immature,
dépourvu de consensus sur les concepts ou les politiques de base
qui seraient nécessaires pour maximiser les avantages tout en minimisant
les risques. Elle reconnaît également l’ampleur des possibilités
et des risques qu’elles présentent – «la perspective d’influencer
les capacités cognitives humaines, déterminant ainsi un effet non
négligeable sur l’évolution culturelle humaine et les équilibres
mondiaux» – et le fait que la nouveauté des TC signifie que «les
sociétés humaines se trouvent aujourd’hui à un tournant crucial,
où elles peuvent prendre des décisions proactives sur le type de
coexistence qu’elles souhaitent établir avec ces technologies. Privilégier
les approches du laisser-faire à ce stade du développement reviendrait
à reporter les interventions de gestion des risques à un moment
où les TC seront largement développées et utilisées, donc hermétiques
à toute modification». La démocratisation pourrait cependant admettre
le point de vue défendu par les partisans du laisser-faire: «l’excès
de réglementation peut (a) anéantir les avantages des technologies
cognitives pour la société au sens large et, si elle est gérée par des
gouvernements non démocratiques, (b) engendrer une concentration
indésirable de pouvoir et de contrôle».
40. Cette «démocratisation» des TC s’appuierait sur six principes
normatifs – qui sont comparables aux composantes des cadres éthiques
proposés pour la réglementation des neurotechnologies de façon plus générale:
i. Prévention du contrôle centralisé –
«principe selon lequel il est moralement préférable d’éviter tout contrôle
centralisé sur les TC pour prévenir les risques associés à l’accumulation
illimitée de capital, de pouvoir et de contrôle sur les technologies
au sein de groupes organisés tels que les grandes entreprises ou
les gouvernements [...] Les interventions normatives visant à limiter
ce risque de centralisation peuvent être perçues comme le pendant
cyberéthique des lois antitrust».
ii. Ouverture – «principe consistant à promouvoir l’accès
universel à (des éléments de) la conception ou au schéma directeur
des technologies cognitives, et la redistribution universelle de
cette conception ou de ce schéma directeur par un processus ouvert
et collaboratif de production entre pairs». La prévention du contrôle
centralisé (principe I ci-dessus) et l’ouverture «sont des exigences
essentielles pour rendre les capacités qui seront enregistrées par
ou intégrées dans les technologies cognitives [...] accessibles à
tous». «Dans un sens plus abstrait, l’ouverture dans le contexte
des TC consiste à enrichir chaque application à laquelle nous sommes
connectés, sur n’importe quel appareil, à n’importe quel moment, avec
les (composantes des) technologies cognitives.»
iii. Transparence – «principe consistant à permettre au grand
public de comprendre les processus internes des technologies cognitives».
iv. Inclusivité – «principe consistant à s’assurer qu’aucun
groupe d’individus ou minorité n’est marginalisé ou laissé pour
compte pendant le processus d’infiltration des technologies cognitives
dans notre société [...] Le principe d’inclusivité [s’applique à
tout] préjugé social éthiquement pertinent qui peut émerger, intentionnellement
ou non, pendant le développement des TC. Il peut s’agir de préjugés
culturels, politiques, linguistiques, etc.»
v. Approche centrée sur l’utilisateur – «les technologies
cognitives émergentes doivent être conçues, développées et mises
en œuvre en fonction des besoins et des choix personnels des utilisateurs
[...] Les utilisateurs finaux (caractérisés aussi largement que
possible, conformément aux principes d’ouverture et d’inclusivité)
[doivent être] associés à la conception, au développement et à la
mise en œuvre des technologies cognitives sur un pied d’égalité.»
vi. Convergence – «au sens strict, la convergence est le principe
d’interopérabilité, d’intercommunication et de facilité d’intégration
entre toutes les composantes des technologies cognitives […] [même
si] une interopérabilité excessive peut entraîner une insécurité
accrue des données […] Au sens plus large et plus abstrait, c’est
aussi le principe de convergence des différents types de technologies
cognitives – les neurotechnologies, en particulier – d’une part,
et des systèmes d’intelligence artificielle, d’autre part».
41. Concernant les neurotechnologies conçues spécifiquement pour
des applications militaires, on note ce commentaire: «Bien que l’éthique
ne semble pas justifier, pour l’heure, une interdiction totale des neurotechnologies
militaires ou un moratoire à leur sujet, des interventions réglementaires
plus souples et plus calibrées pourraient être nécessaires pour
atténuer les risques d’usage disproportionné des neurosciences en guise
d’armes». Là encore, cela supposerait «d’assurer au plus vite un
suivi et une évaluation approfondie des risques. Même si pour l’heure,
les avantages semblent l’emporter sur les risques, des mécanismes
préventifs devraient être mis en place pour détecter rapidement
les évolutions de ce ratio»

. Il serait néanmoins nécessaire
de ne pas se priver de la capacité de se défendre dans l’hypothèse
d’un adversaire utilisant ces technologies.
42. La discipline baptisée «neuroéthique» présente de nombreux
points communs avec la bioéthique. Dans ce dernier domaine, le Conseil
de l’Europe a en 1997 adopté la Convention pour la protection des
Droits de l'Homme et de la dignité de l'être humain à l'égard des
applications de la biologie et de la médecine: Convention sur les
Droits de l'Homme et la biomédecine (STE n° 164, «Convention d’Oviedo»),
dont l’objectif est de «[protéger] l’être humain dans sa dignité
et son identité et [de garantir] à toute personne, sans discrimination,
le respect de son intégrité et de ses autres droits et libertés
fondamentales à l’égard des applications de la biologie et de la
médecine». La Convention d’Oviedo affirme notamment que «l’intérêt
et le bien de l’être humain doivent prévaloir sur le seul intérêt
de la société ou de la science», oblige les Parties à prendre «les
mesures appropriées en vue d’assurer, dans leur sphère de juridiction,
un accès équitable à des soins de santé de qualité appropriée»,
et établit que «toute intervention dans le domaine de la santé,
y compris la recherche, doit être effectuée dans le respect des
normes et obligations professionnelles». Elle comporte aussi des
dispositions détaillées sur le consentement, les usages acceptables
des tests prédictifs et les objectifs acceptables des interventions
sur le génome humain.
43. En novembre 2019, peu après la présentation de ma note introductive
à la commission, le Comité intergouvernemental de bioéthique «DH-BIO»
du Conseil de l’Europe a adopté un plan d’action stratégique sur les
droits de l’homme et les technologies en biomédecine (2020-2025).
Ce document énonce que «[l]’application de technologies émergentes
et convergentes en biomédecine a pour conséquence l’effacement des
frontières entre les sciences physiques et biologiques, entre ce
qui relève de la thérapie et ce qui fait partie de la recherche,
de même qu’entre les finalités médicales et non médicales. Si elles
offrent des possibilités intéressantes dans le domaine de la biomédecine
et au-delà, les technologies émergentes et convergentes posent aussi
de nouveaux problèmes éthiques liés entre autres à l’identité, à
l’autonomie, à la vie privée et à la non-discrimination». S’appuyant
sur la coopération (entre les organes du Conseil de l’Europe et
avec les autres instances intergouvernementales pertinentes) et
la communication (avec les parties prenantes externes), ce plan
d’action s’articule autour de trois piliers: la gouvernance (basée
sur les droits de l’homme, le débat public, la gouvernance démocratique
et la transparence), l’équité (dans l’accès aux technologies et traitements
innovants, pour lutter contre les disparités sanitaires dues à l’évolution
sociale et démographique) et l’intégrité (y compris le renforcement
de la participation des enfants, la protection des droits des enfants
et la protection des droits des personnes atteintes de troubles
mentaux).
44. En ce qui concerne l’ICM et les technologies connexes, le
plan d’action note que «[l]es avancées dans le domaine des neurotechnologies,
telles que la stimulation cérébrale profonde, les interfaces cerveau-ordinateur
et les réseaux de neurones artificiels, ouvrent la perspective d’une
compréhension, d’une surveillance et d’un contrôle accrus de l’esprit
humain, mais posent aussi des questions de vie privée, de personnalité
et de discrimination […] Il est donc nécessaire d’évaluer si le
cadre existant en matière de droits de l’Homme est suffisant pour
y répondre ou si de nouveaux droits de l’homme relatifs à la liberté
cognitive, à la vie privée mentale, ou à l’intégrité mentale et
la continuité psychologique doivent être envisagés pour encadrer
les neurotechnologies. D’autres formes flexibles de bonne gouvernance
peuvent constituer une alternative plus adaptée pour réglementer
les neurotechnologies». Sans surprise, le DH-BIO partage mes préoccupations
et les grandes lignes de ma perception des possibilités et des risques
que présentent les technologies ICM. Je salue et je soutiens ses
travaux futurs sur les réponses les plus pertinentes, à savoir un renforcement
ciblé du cadre des droits de l’homme (voir ci-dessous) et la mise
en place d’un régime réglementaire souple qui puisse soutenir et
orienter la recherche et le développement vers des fins positives et
constructives.
45. D’autres organisations internationales s’intéressent également
aux neurotechnologies émergentes. En décembre 2019, le Conseil de
l’OCDE a adopté une recommandation sur l’innovation responsable
dans le domaine des neurotechnologies. Cette recommandation «met
l’accent sur l’importance (1) de valeurs fondamentales telles que
la gestion responsable, la confiance, la sécurité et le respect
de la vie privée dans ce contexte technologique, (2) du développement
des capacités d’institutions phares comme les organismes de prospective
et de surveillance et les organes consultatifs, et (3) des processus
en matière de débats sociétaux, d’innovation inclusive et de collaboration».
Elle appelle ensuite les États membres et non membres et «tous les
acteurs» à promouvoir et mettre en œuvre un ensemble de neuf «principes
pour l’innovation responsable dans le domaine des neurotechnologies»,
qui sont décrits avec leurs actions spécifiques. Ces principes sont
les suivants:
i. Promouvoir une innovation
responsable
ii. Donner la priorité à l’évaluation de la sécurité
iii. Promouvoir l’inclusivité
iv. Encourager la collaboration scientifique
v. Favoriser les débats sociétaux
vi. Développer les capacités des organismes de surveillance
et des organes consultatifs
vii. Protéger les données cérébrales personnelles et autres
informations
viii. Promouvoir une culture de la gestion responsable et de
la confiance dans les secteurs public et privé
ix. Anticiper et surveiller les éventuels usages non intentionnels
et/ou abusifs
46. Les neurotechnologies en général, et les ICM en particulier,
pourraient modifier fondamentalement les relations entre for intérieur
et monde extérieur. Certains chercheurs (dont M. Ienca) appellent
donc de leurs vœux des réponses juridiques innovantes, y compris
la création (ou une définition adaptée) de quatre «nouveaux» droits
de l’homme exécutoires: le droit à la liberté cognitive, le droit
au respect de la vie privée sur le plan mental, le droit à l’intégrité
mentale et le droit à la continuité psychologique. La «liberté cognitive»
peut être définie comme «le droit et la liberté de contrôler sa
propre conscience et les processus électrochimiques qui président
à sa propre pensée, […] condition préalable nécessaire à toutes
les autres libertés». Elle est proche en cela de la liberté de pensée,
qu’on peut considérer comme indispensable aux libertés de religion, d’expression
et d’association. Proche, mais elle est fondamentalement différente
et distincte: si la liberté de penser est le droit de penser ce
qu’on veut, la liberté cognitive en est la condition préalable –
la liberté du cerveau à générer des pensées sans interférences technologiques
(ou autres) dans ce processus. Le droit au respect de la vie privée
sur le plan mental protégerait les individus contre l’observation
non consentie de leurs processus mentaux subconscients. Le droit
à l’intégrité mentale offrirait une protection contre des usages néfastes
de type «piratage malveillant du cerveau» permettant une prise de
contrôle des pensées et des actions de la personne. Le droit à la
continuité psychologique protégerait l’individu contre des actes susceptibles
d’avoir une incidence sur «la perception que chacun a de sa propre
identité […], [qui] consiste à se voir comme une même personne dans
la durée»

– de rester psychologiquement soi-même.
L’article dans lequel apparaissent ces propositions, ambitieux et
détaillé, suscite la réflexion. Les auteurs se demandent entre autres
si ces «nouveaux» droits sont déjà implicites ou non dans les droits
existants et si leur «création» constituerait une «inflation des
droits».
47. Un pays, le Chili, travaille déjà sur la protection juridique
des «neurodroits», en collaboration avec le professeur Yuste et
l’initiative NeuroRights de l’Université Columbia (voir ci-dessus).
Une proposition de modification de l’article 19 de la Constitution
chilienne définit l’identité mentale comme un droit fondamental, qui
ne peut être modifié que par application des lois futures. Le projet
de loi sur la «neuroprotection» qui l’accompagne contient des définitions
juridiques des neurotechnologies, des interfaces cerveau-machine
et des neurodroits. Toutes les données obtenues à partir du cerveau
seraient définies comme des «neurodonnées» et intégrées dans le
champ d’application de la législation existante sur les dons d’organes, interdisant
ainsi leur commerce. Toute utilisation et tout développement futurs
des neurotechnologies seraient soumis à la législation médicale.
Parallèlement à ces initiatives, l’Université catholique au Chili
travaille sur des directives éthiques pour les secteurs de l’informatique,
de l’IA et de la neuro-ingénierie. Toutes ces activités sont associées
à une campagne de sensibilisation du grand public soutenue par le
président chilien, les ministres du gouvernement et les parlementaires

. Ce nouveau cadre juridique ferait
du Chili le premier pays au monde à réglementer et à protéger les
données qui pourraient être extraites du cerveau humain, en vue
de réserver leur utilisation à des fins altruistes

. On dit par
ailleurs qu’il pourrait rendre illégales des technologies telles
que celles du projet «taper du texte par la pensée» de Facebook

.
48. Les appels des neuroéthiciens en faveur d’une protection juridique
des neurodroits se heurtent à un certain scepticisme. Alan Mardinly
de Neuralink, par exemple, a émis l’hypothèse que le droit à la
liberté cognitive pourrait être violé par la publicité classique,
qui est souvent délibérément conçue et ciblée de façon à exploiter
des prédilections subconscientes. De même, le traitement des addictions
pourrait également être considéré comme une ingérence extérieure
dans la liberté de choix de consommation d’un individu.
49. En ce qui concerne l’aspect IA des technologies ICM, le Comité
des Ministres a mis sur pied en septembre 2019 le Comité ad hoc
sur l’intelligence artificielle (CAHAI). Le CAHAI a pour mission
d’étudier la faisabilité et les éléments potentiels d’un cadre juridique
pour la conception, le développement et l’application de l’intelligence
artificielle. Son travail se fonde sur les normes du Conseil de
l’Europe dans le domaine de la démocratie, des droits de l’homme
et de l’État de droit, ainsi que sur d’autres instruments juridiques internationaux
pertinents et sur les travaux menés au sein d’autres organisations
internationales et régionales. Avec les participants habituels représentant
les États membres et observateurs du Conseil de l’Europe et d’autres
organes du Conseil de l’Europe (dont l’Assemblée), le CAHAI bénéficie
d’un niveau d’implication exceptionnellement élevé des représentants
des organismes du secteur privé, de la société civile et du monde universitaire
et de la recherche.
50. Le CAHAI a tenu sa première réunion du 18 au 20 novembre 2019.
Il a décidé, entre autres, qu’un des éléments clés de la future
étude de faisabilité serait une «cartographie des risques et opportunités
découlant du développement, de la conception et de l’application
de l’intelligence artificielle, notamment l’impact de cette dernière
sur les droits de l’homme, l’État de droit et la démocratie». À
ce jour, le CAHAI prévoit d’adopter l’étude de faisabilité lors
de sa troisième réunion, qui doit avoir lieu en décembre 2020.
51. C’est dans ce contexte institutionnel que l’Assemblée débattra
du présent rapport et de divers autres rapports relatifs à l’IA
actuellement en préparation dans diverses commissions. L’Assemblée
a choisi d’aborder le sujet sous un angle contextuel, en examinant
les effets de l’IA dans différents domaines. Au sein de la commission
des questions juridiques et des droits de l’homme, par exemple,
il existe aussi des rapports sur «La justice par algorithme - le
rôle de l’intelligence artificielle dans les systèmes de police
et de justice pénale», sur les «Aspects juridiques concernant les
‘véhicules autonomes’» et (dans les premières phases de préparation)
sur les systèmes d’armes létales autonomes. Les recommandations
que l’Assemblée pourrait adopter sur la base de ces rapports fourniront
donc au CAHAI des orientations importantes lorsqu’il s’agira de cartographier
les risques et les opportunités de l’IA et ses effets sur les droits
de l’homme, l’État de droit et la démocratie, et de déterminer ensuite
la nécessité d’un cadre juridique international contraignant.
6. Conclusions
et recommandations
52. Comme beaucoup de technologies,
les ICM ouvrent de nouvelles possibilités, mais créent aussi des risques.
Elles pourraient rendre à des personnes la capacité de se mouvoir
et de communiquer, permettre un accomplissement coopératif de certaines
tâches ou rendre nos actes plus efficaces; augmenter nos capacités cognitives
en nous donnant directement accès aux données et en nous permettant
d’exploiter davantage la puissance de l’informatique, ou encore
nous ouvrir de nouvelles expériences sensorielles, voire émotionnelles. D’un
autre côté, elles pourraient ne tenir aucun compte des droits au
respect de la vie privée, à l’intégrité et à la protection contre
le fait de contribuer à sa propre mise en accusation; de la liberté
d’expression; influencer les choix, les comportements et même la
personnalité dans la durée; ou saper des aspects essentiels de l’égalité
et de la dignité humaines.
53. Bien que ni les découvertes scientifiques, ni les technologies
ne soient suffisamment avancées à l’heure actuelle pour produire
simultanément tous ces dangers, certaines d’entre elles sont déjà
envisageables. Les exemples évoqués ci-dessus représentent tous
des conséquences réalistes et prévisibles des avancées rapides qui
sont en train de se produire. Comme l’ont conclu de nombreux observateurs
dont les points de vue diffèrent, il y a urgence: il faut anticiper
dès aujourd’hui les risques potentiels et adopter des mesures réglementaires
pour les atténuer ou les éviter. Comme pour l’IA, discipline voisine,
cela pourrait passer par des codes de déontologie, des réglementations
contraignantes, voire de nouveaux droits, ou, plus probablement, par
une combinaison des trois. Si les technologies ICM s’appuient de
plus en plus sur l’IA, elles soulèvent un ensemble de préoccupations
distinctes qui leur sont propres. Les principes éthiques et la réponse réglementaire
requise sont donc, d’une certaine manière, plus complexes, reflétant
l’importance de ce que signifie l’intrusion de ces technologies
au cœur même de l’être humain.
54. Mes propositions concrètes et politiques sont exposées dans
les projets de résolution et de recommandation ci-joints.