1. J’aimerais féliciter M. Le
Déaut pour son rapport, qui souligne à juste titre le défi que représentent
les nouvelles technologies pour les droits de l’homme.
2. Permettez-moi d’insister d’emblée sur la difficulté qu’il
y a à donner un point de vue juridique sur les questions soulevées
dans ce rapport. Nous manquons en effet de compétence pour ce faire,
puisse que celle-ci est, au mieux, limitée à l’heure actuelle. Les
questions abordées dans ce rapport semblent à première vue de l’ordre
de la science-fiction. Mais l’évolution, voire la révolution, technologique
atteint une telle ampleur qu’elle devient irrésistible. Elle est
cependant tout à fait réelle et il est de la plus haute importance
que nous examinions sérieusement les conséquences qu’elle peut avoir
sur les droits de l’homme.
3. La particularité des «véritables» systèmes d’intelligence
artificielle, qui les distingue des logiciels «classiques», est
leur capacité à produire des résultats qui ne sont pas directement
prévus par les instructions données par leur programmateur. Ces
résultats sont obtenus par une accumulation, un traitement et une
prise en compte des nouvelles données qui s’effectuent de manière
«indépendante». Les systèmes d’intelligence artificielle possèdent
donc, d’une certaine façon, la capacité d’apprendre et de prendre
des décisions eux-mêmes.
4. Ce sujet est beaucoup trop vaste et complexe pour être traité
convenablement du point de vue juridique dans le cadre d’un avis.
Je me contenterai donc de formuler quelques observations. Je propose
que nous poursuivions une réflexion plus approfondie sur cette question
dans un futur rapport.
1. Questions relatives
à l’obligation de rendre des comptes
5. Du point de vue juridique,
le présent rapport soulève la question de la subjectivité du système d’intelligence
artificielle. Cette question présente deux aspects. Premièrement,
peut-on considérer un système d’intelligence artificielle comme
un titulaire autonome de droits? Ce point a été largement traité
par la science-fiction et continue pour le moment à faire exclusivement
partie de ce domaine. Mais un autre aspect, celui de l’obligation
de rendre des comptes, est déjà une réalité concrète aujourd’hui.
À qui incombe la responsabilité d’un préjudice causé par un système
d’intelligence artificielle, notamment lorsqu’il s’agit d’une violation
des droits de l’homme?
6. L’Assemblée parlementaire s’est déjà en partie penchée sur
cette question. Elle a, en particulier dans sa
Résolution 2051 (2015) «Drones et exécutions ciblées: la nécessité de veiller
au respect des droits de l’homme et du droit international», appelé
l’ensemble des États membres et des États observateurs, ainsi que les
États dont les parlements jouissent du statut d’observateur auprès
de l’Assemblée, à s’abstenir de recourir à «toute procédure automatique
(robotique) visant à cibler des personnes sur la base de modes de communication
ou d’autres données collectées par des techniques de surveillance
de masse».
7. Dans une récente résolution sur les dispositions de droit
civil relatives à la robotique
, le Parlement européen souligne
qu’il faut établir d’urgence un projet de législation pour préciser
les questions de responsabilité, surtout pour les voitures automatisées.
Dans cette résolution, le Parlement européen indique à juste titre
que, dans ce contexte, «la question de la responsabilité juridique
en cas d’action dommageable d’un robot devient une question cruciale».
Le Parlement européen va jusqu’à demander à la Commission européenne
«d’envisager, à long terme, la possibilité de créer un statut juridique
spécial pour les robots, afin de clarifier la responsabilité en
cas de dommages».
8. Or il devrait être clair, selon moi, que l’obligation de rendre
des comptes au sujet d’un acte incombe à un être humain, indépendamment
des circonstances dans lesquelles il a été commis. En tout état
de cause, la mention d’une prise de décision «indépendante» par
des systèmes d’intelligence artificielle ne saurait exonérer les
créateurs, propriétaires et gérants de ces systèmes de leur obligation
de rendre des comptes pour les violations des droits de l’homme
commises en utilisant ces systèmes, même lorsque l’acte qui a causé
le préjudice n’a pas été directement ordonné par un commandant ou
opérateur humain responsable.
2. Les instruments
pertinents du Conseil de l’Europe
9. Deux conventions du Conseil
de l’Europe présentent une pertinence directe pour la question qui
nous occupe.
- La Convention pour la protection des Droits
de l'Homme et de la dignité de l'être humain à l'égard des applications
de la biologie et de la médecine: «Convention sur les Droits de
l'Homme et la biomédecine» ou «Convention d’Oviedo» (STE n° 164
)
10. La Convention d’Oviedo protège les droits de l’homme dans
le domaine de la biomédecine. Il s’agit d’une convention-cadre,
qui vise à protéger la dignité et l’identité de tous les êtres humains
et à garantir à toute personne, sans discrimination, le respect
de son intégrité et de ses autres droits et libertés fondamentales
dans l’application de la biologie et de la médecine.
11. Fait très important, la Convention d’Oviedo affirme la primauté
de l’être humain. Son article 2 est libellé comme suit: «L'intérêt
et le bien de l'être humain doivent prévaloir sur le seul intérêt
de la société ou de la science.» Cela vaut tout particulièrement
pour le domaine des robots de soins. Comme le souligne le rapport de
M. Le Déaut, cet élément soulève la question du droit de choisir
entre le contact humain et l’assistance d’un robot. En définitive,
si le contact humain était totalement remplacé par des robots, ce
qui pourrait avoir pour effet d’entraîner une privation complète
de contact humain, l’article 3 de la Convention européenne des droits de
l’homme (STE no 5) pourrait entrer en
jeu.
- La
Convention pour la protection des personnes à l’égard du traitement
automatisé des données à caractère personnel (STE n° 108)
12. La Convention no 108, ouverte à
la signature le 28 janvier 1981, a été le premier – et reste aujourd’hui le
seul – instrument international juridiquement contraignant dans
le domaine de la protection des données. En vertu de cette convention,
les parties sont tenues de prendre les mesures qui s’imposent dans
leur législation interne pour appliquer les principes énoncés par
cet instrument, afin de garantir le respect, sur leur territoire,
des droits de l’homme fondamentaux de tous les individus dans le
traitement des données à caractère personnel. Il est clair que le
domaine des nouvelles technologies de l’information et de la communication
a connu une gigantesque évolution depuis 1981, surtout pour ce qui
est du traitement automatisé des données. Cette évolution entraîne
de nouveaux défis à relever pour le respect de la vie privée.
13. Il est donc devenu indispensable de moderniser la Convention
no 108 pour qu’elle reflète la nouvelle réalité
de la situation et continue à assurer une protection adéquate au
vu de l’évolution des technologies et de l’apparition de nouvelles
technologies. En 2010, il a été décidé d’entreprendre cette modernisation
de la convention. Il s’agit de mieux surmonter les difficultés nées
de l’utilisation des nouvelles technologies de l’information et
de la communication, mais également de renforcer la mise en œuvre
de la Convention no 108.
14. Le comité intergouvernemental compétent (Comité ad hoc sur
la protection des données – CAHDATA) a achevé ses travaux en juin
2016. À l’époque, le Secrétaire Général du Conseil de l’Europe espérait
que le Comité des Ministres achèverait ses travaux d’ici à la fin
2016
. Mais à ce jour, la version révisée
du traité n’a toujours pas été adoptée.
15. Il importe donc que l’Assemblée invite instamment le Comité
des Ministres à achever ses travaux sur la modernisation de la Convention
no 108 et à adopter sans tarder la version
révisée du traité.
3. Amendements
Amendement A: il s’explique
de lui-même.
Amendement B: il s’explique
de lui-même.
Amendement C
Note explicative:
Cet amendement vise à indiquer clairement que la responsabilité
incombe à un être humain, quelles que soient les circonstances.
Amendement D
Note explicative:
Cet amendement vise à réitérer l’appel lancé par l’Assemblée
dans sa Résolution 2051
(2015), mentionnée plus haut, en élargissant le champ d’application
de cet appel de manière à ne pas viser uniquement les drones (qui
étaient précisément le sujet du rapport de 2015), mais à prendre
également en compte les autres systèmes d’intelligence artificielle
susceptibles de causer un préjudice et de porter atteinte aux droits
de l’homme.