1. Introduction
1. L’intelligence artificielle
permet la simulation d’intelligence ou même la création de machines intelligentes
grâce à l’augmentation exponentielle des puissances de calcul. La
convergence entre les nanotechnologies, la biotechnologie, les technologies
de l’information et les sciences cognitives («NBIC») entraîne une
interaction croissante entre les sciences du vivant, l’informatique
et l’ingénierie.
2. De nos jours, certains robots peuvent imiter le comportement
humain et entrent en compétition avec l’homme sur le marché du travail
et dans la vie courante, dans la mesure où ils sont capables d’un apprentissage
automatique perceptuel par l’expérience, qu’ils deviennent autonomes,
qu’ils ont d’énormes capacités de mémoire et qu’une certaine forme
de conscience artificielle est programmée dans la machine, ce qui
leur donne d’une certaine manière l’aptitude à raisonner. De nouvelles
machines dotées d’intelligence artificielle seront utilisées dans
les systèmes experts, dans les systèmes de commandement militaire,
dans l’aide au diagnostic et aux décisions, dans l’évaluation des
risques, dans la gestion financière, dans la reconnaissance des
formes et de la parole, et certaines machines pourront exprimer
des émotions artificielles et seront capables de résoudre des problèmes
complexes.
3. Ces évolutions soulèvent de nouvelles questions quant à leurs
implications pour les droits de l’homme et la dignité humaine et,
parfois, la délimitation des frontières entre l’être humain et la
machine intelligente.
4. J’entends, dans le présent rapport, examiner les conséquences
sociales, éthiques et juridiques de la convergence technologique,
de l’intelligence artificielle et de la robotique sous l’angle des
droits de l’homme, en jetant un regard prospectif sur les nouvelles
formes de gouvernance, souhaitables, sur l’organisation du débat
public, sur l’évolution de la réglementation, de la législation
et de la coopération internationale.
5. Je tiens à remercier MM. Rinie van Est et Joost Gerritsen,
de l’Institut Rathenau (Pays-Bas), pour l’aide qu’ils m’ont apportée
en élaborant un rapport d’expert que M. van Est a présenté à la
commission de la culture, de la science, de l'éducation et des médias
en décembre 2016
. Je tiens également
à remercier tous les autres experts qui ont pris part aux auditions
organisées par la commission
.
Les deux chapitres qui suivent se fondent sur les échanges que nous
avons eus avec l’Institut Rathenau et les autres experts.
2. Convergence technologique
6. La convergence dite «NBIC»
concerne quatre disciplines: les nanotechnologies, la biotechnologie,
les technologies de l’information et les sciences cognitives.
7. Dans la seconde partie du XXe siècle,
l’ère de la «révolution de l’information» a été marquée par la convergence
des technologies de l’information (TI), qui a donné naissance à
toute une série de disciplines scientifiques et de processus industriels
et de services. L’internet, par exemple, est né de la convergence
entre les TI et les technologies de la communication. La recherche
sur le génome humain, qui continue de progresser, est issue de la
convergence entre la biologie et les TI, car le décryptage du génome
est lié à la puissance de calcul. Et inversement, la communauté
des TI, inspirée par les avancées de la biologie, a inventé les
réseaux neuronaux, l’intelligence en essaim et les ordinateurs à
ADN. L’émergence rapide des sciences cognitives ces dernières décennies
a accéléré le passage de la convergence NBI (nanotechnologies, biotechnologies
et technologies de l’information) à la convergence NBIC, et a donné
un nouveau souffle à l’«intelligence artificielle» et à la robotique.
8. On peut observer deux tendances qui témoignent de l’interface
grandissante entre l’homme et la machine
.
D'une part, la biologie devient une technologie. Autrement dit,
les sciences physiques (nanotechnologies et technologies de l’information)
contribuent à faire progresser les sciences du vivant comme les
biotechnologies et les sciences cognitives. Cette convergence suscite
de nouvelles ambitions dans le domaine des processus biologiques
et cognitifs, notamment en ce qui concerne l’amélioration des capacités humaines.
La commission des questions sociales, de la santé et du développement
durable prépare actuellement un rapport sur «Des êtres humains génétiquement
modifiés»
. Je prépare moi-même un rapport pour
le Parlement français sur la révolution de la modification ciblée
du génome
(genome editing) .
9. D’aucuns pensent que le développement des neurosciences, la
simulation des circuits neuronaux permettra désormais de savoir
ce qu’une personne a tendance à penser, à faire ou à vouloir – de
lire en elle finalement, et de mieux évaluer les comportements individuels
et collectifs et, partant, de contrôler, voire de manipuler autrui.
10. La seconde tendance concerne le fait que technologie et biologie
se rejoignent et se complètent, car les sciences de la vie stimulent,
font progresser et apportent de nouveaux concepts aux sciences physiques. Autrement
dit, les technologies, notamment les technologies de l’information,
acquièrent des propriétés que nous attribuons habituellement aux
organismes vivants, comme l’autoassemblage, l’autoguérison, la reproduction
et le comportement intelligent. De ce fait, nous assisterons à l’avenir
à une multiplication de nouveaux types de modifications dues à l’homme
(artefacts) utilisant les technologies bio, cogno et même socio,
qui seront insérées dans notre corps ou notre cerveau ou étroitement
intégrées dans notre vie sociale. Parmi ces artefacts bioinspirés,
citons les produits biopharmaceutiques, les produits de l’ingénierie
tissulaire, les cellules souches et les xénogreffes, ou encore les
organes artificiels hybrides. Les robots humanoïdes, les avatars,
les softbots (agents logiciels dans un environnement numérique),
les technologies persuasives qui peuvent infléchir des décisions
et modifier les rapports avec les autres, et les techniques de détection
des émotions sont des exemples «d’artefacts» inspirés par les sciences
cognitives et les sciences sociales.
11. L’intelligence artificielle et la robotique s’appuient sur
l’infrastructure existante des technologies de l’information et
de la communication (TIC) et des nanotechnologies. Non seulement
les robots sont utilisés en médecine, dans l’agriculture et dans
l’industrie manufacturière, mais ils sont aussi capables aujourd’hui
de conduire des voitures et de piloter des drones. De plus, les
dispositifs intelligents transforment la nature de l’internet qui
remplit les fonctions d’un gigantesque système robotique, en étant
doués de la capacité d’apprentissage
12. Les humains sont de plus en plus intimement liés à la technologie
.
Nous laissons la technologie se nicher en nous, près de nous et
entre nous. La technologie s’immisce entre nous à grande échelle
par le biais des smartphones, des traqueurs d’activité, des réseaux
sociaux, des jeux en ligne massivement multijoueurs ou des lunettes
de réalité augmentée. Ces appareils numériques s’immiscent dans
notre vie, privée et sociale, et influencent de plus en plus la
façon dont nous, humains, interagissons. Nos interactions avec les
machines qui nous entourent – caméras de vidéosurveillance, données
GPS, chaussures intelligentes, puces à ADN, technologies de reconnaissance
faciale, moteurs de recherche sur internet, voitures intelligentes,
etc. – permettent de nous caractériser numériquement. Des données
numériques sont ainsi collectées, sur notre patrimoine génétique,
notre santé, nos inclinations, nos passe-temps, nos sentiments,
nos préférences, nos conversations et nos déplacements. Ces données
ne sont pas recueillies sans but: il s’agit dans bien des cas de
faire entrer les êtres humains dans des profils, dans le but explicite
d’intervenir dans nos choix futurs.
13. Enfin, certaines technologies présentent de plus en plus de
caractéristiques humaines. Les machines peuvent développer des traits
humains et nous toucher par leur apparence extérieure, elles peuvent
imiter les activités humaines, conduire une voiture par exemple,
adopter des comportements intelligents voire exprimer des émotions.
Citons par exemple les voitures sans chauffeur, les robots sociaux,
les assistants numériques, les chatbots, Google Traduction et IBM Watson Health, qui fait office de
système d’aide à la décision clinique et est utilisé par des professionnels
de santé. Notons – et c’est important – que si ces machines sont
aptes à imiter les caractéristiques ou les activités humaines, c’est
souvent grâce à l’énorme volume de données accumulées sur nos caractéristiques
propres et nos activités. Google se base sur des traductions humaines numérisées,
par exemple celles produites par les traducteurs du Parlement européen,
pour entraîner ses algorithmes. Rassembler quantité de données numériques
sur nous-mêmes permet aux ingénieurs de réaliser des machines qui
se comportent comme nous et donc d’accroître l’interaction entre
les humains et les machines.
14. Jusqu’à présent, l’essentiel du débat bioéthique et la plupart
des traités connexes sur les droits de l’homme étaient axés sur
les technologies biomédicales invasives, agissant à l’intérieur
de notre organisme. La Convention du Conseil de l'Europe sur les
droits de l’homme et la biomédecine (STE no 164,
«Convention d’Oviedo») énonce ainsi quelques principes directeurs
communs destinés à protéger la dignité de l’être humain dans le
cadre de l’application des innovations de la biomédecine. Parallèlement
toutefois est apparue toute une variété de nouvelles technologies
fondées sur les TIC et agissant à l’extérieur du corps – mais influençant toujours
les comportements corporels, psychologiques et sociaux des êtres
humains – qui soulèvent de nombreuses et nouvelles questions sur
le plan éthique, social et des droits de l’homme.
15. Si nous voulons protéger la dignité humaine au XXIe siècle,
nous devons donc absolument nous pencher sur l’ensemble des «technologies
intimes», à savoir les technologies qui sont en nous (comme la stimulation
cérébrale profonde), qui nous sont proches (électroencéphalogramme
(EEG), neuromodulation), qui nous relient (réseaux sociaux), qui
détiennent une foule d’informations sur nous (mégadonnées), et les technologies
qui nous imitent (par exemple les robots et les environnements intelligents).
16. L’expression «internet des objets» est fréquemment utilisée
pour évoquer ce groupe de technologies. La robotique a doté internet
de «sens» grâce à des capteurs et de «mains et de pieds» grâce à
des actionneurs. Un internet des objets robotiques se met ainsi
en place. Une large gamme de technologies de l’information et de
la communication – réseaux de capteurs, internet, mégadonnées, intelligence
artificielle et robotique – jouent un rôle dans cette évolution.
L’omniprésence de ces TIC, toujours grandissante, estompe peu à
peu la distinction entre l’homme et la machine. On parle d’hyperconnectivité
(onlife en anglais) pour évoquer
cette nouvelle condition humaine. Dans ce monde hyperconnecté, nous
interagissons avec toutes sortes «d’artefacts intelligents» ou numériquement
codés.
17. Chaque type d’interaction entre les humains et les machines
intelligentes est susceptible de soulever diverses questions en
matière de droits de l’homme. Le présent rapport illustre ces problématiques
en se concentrant sur six technologies précises: les voitures sans
chauffeur, les robots de soins, les entraîneurs électroniques («e-coachs»),
l’intelligence artificielle utilisée pour le tri social, les applications
judiciaires de l’intelligence artificielle et la réalité augmentée.
Nous n’avons pas abordé dans ce rapport la question des robots et
des drones utilisés en matière de défense.
3. Les
droits de l’homme liés aux artefacts intelligents
«La
technologie n’est ni bonne ni mauvaise, pas plus qu’elle n’est neutre»
(Melvin Kranzberg, Six Laws of Technologies, 1986). Elle doit être
jugée par l’utilisation que l’homme en fait.
3.1. Protection
des données à caractère personnel
18. Le modèle économique d’internet
repose avant tout sur la surveillance de masse
. Par exemple, Facebook suit à la
trace tous les internautes, même ceux qui n’ont pas de compte sur
ce réseau social
.
Les données collectées peuvent révéler des informations sensibles
sur la vie des gens, par exemple leur orientation sexuelle, le groupe
ethnique auquel ils appartiennent, leurs opinions religieuses et
politiques, leurs traits de caractère et leur niveau d’intelligence,
elles peuvent indiquer s’ils sont heureux, s’ils consomment des substances
entraînant une dépendance. Comme il s’agit de traiter des données
à caractère personnel, les réglementations en matière de protection
des données s’appliquent, notamment la Convention du Conseil de l’Europe
pour la protection des personnes à l’égard du traitement automatisé
des données à caractère personnel (STE no 108,
ci-après «Convention no 108») et son
Protocole additionnel concernant les autorités de contrôle et les
flux transfrontières de données (STE no 181).
19. La Convention no 108 énonce le
principe selon lequel les données à caractère personnel sont traitées loyalement
et licitement. Elle prévoit également des mesures de contrôle donnant
notamment à toute personne le droit d’obtenir confirmation de l’existence
ou non de données à caractère personnel la concernant ainsi que le
droit d’obtenir la rectification de celles-ci
. L’Union européenne
a déployé des efforts pour adapter l’Europe à l’ère numérique en
établissant le Règlement général sur la protection des données (RGPD),
qui s’appliquera à partir du 25 mai 2018
.
20. Internet et le traitement des données à caractère personnel
vont de pair, vu la définition large donnée à celles-ci. Même le
traitement d’une adresse IP, qui sert à identifier un dispositif
connecté à internet, peut activer l’application de la réglementation
sur la protection des données
. S’agissant de
l’analyse des mégadonnées, l’utilisation de données à des fins inédites
ou incompatibles, la maximisation des données, l’absence de transparence,
la possibilité de découvrir des informations sensibles, le risque
de ré-identification, les conséquences sur la sécurité et les données
incorrectes, sont autant de défis pour la protection des données à
caractère personnel
.
En outre, les internautes n’ont guère la possibilité, dans la pratique,
de s’opposer à l’analyse des (méga)données aux fins de ciblage comportemental:
c’est ainsi que l’utilisation de témoins de connexion «cookie walls»
empêche les gens d’avoir accès à un site web à moins qu’ils n’autorisent
le propriétaire du site à suivre leurs activités, c’est à prendre
ou à laisser
.
21. Le Conseil de l’Europe s’est intéressé à nombre des problématiques
soulevées par ces «mégadonnées»
et
la Convention no 108 est en cours de
révision pour mieux prendre en compte les nouveaux défis posés par
l’ère numérique. Les principales innovations portent sur les points
suivants: la proportionnalité (implicite jusqu’ici et concernant
uniquement les données), le principe de minimisation des données;
l’obligation de démontrer le respect des principes applicables,
en particulier pour les responsables du traitement et les sous-traitants;
l’obligation de déclarer les violations de données; la transparence
du traitement des données et les garanties complémentaires pour
la personne intéressée (par exemple le droit de ne pas faire l’objet
d’une décision fondée seulement sur un traitement automatisé sans
que son avis soit pris en considération, le droit de connaître la
logique sous-tendant le traitement et le droit de le contester)
. Par ailleurs, des lignes directrices
sur la protection des personnes à l’égard du traitement des données
à caractère personnel à l’ère des mégadonnées
ont récemment été adoptées par le
Comité de la Convention no 108.
22. La plupart des difficultés que suscitent les services internet
en matière de protection des données sont également engendrées par
l’internet des objets. Tout comme les sites et les applications
web, les machines qui font partie de l’internet des objets peuvent
servir à recueillir des données. Imaginons une voiture robot enregistrant
le lieu où elle se trouve ou contrôlant son itinéraire de voyage
(données de localisation) ou encore un robot de soins dépistant
les expressions faciales ou les émotions d’une personne âgée (données biométriques).
Les commerçants utilisent déjà des technologies leur permettant
de suivre leurs clients dans leur magasin ou même les gens qui passent
à proximité de leur magasin
. Des sociétés technologiques comme
Google, Amazon, Facebook, Apple et Microsoft ont mis au point des
stratégies commerciales destinées à recueillir des données à l’intérieur
et autour du domicile. Il s’ensuit que notre maison – qui était autrefois
notre château fort – est devenue un endroit où nos mouvements ou
comportements sont constamment «surveillés», par exemple par l’intermédiaire
d’un smartphone, d’un compteur intelligent ou d’une télévision connectée.
Cette collecte de données – que ce soit par internet ou par l’internet
des objets – permet à ces sociétés d’avoir des indications précises
sur la vie de millions de personnes. Elle découle parfois de l’application
de la loi, par exemple de l’utilisation d’un compteur intelligent
ou d’un enregistreur de données routières dans une voiture.
23. Le développement de l’internet des objets soulève des questions
sur la transparence du traitement des données et sur la façon dont
les personnes peuvent exercer leurs droits découlant de la Convention
no 108 ou cadre législatif de l’Union
européenne. Les pressions qui s’exercent sur l’un des principaux
piliers du traitement légitime des données – le consentement des
personnes au traitement des données les concernant – vont perdurer.
L’absence de transparence des décisions automatisées soulève elle
aussi des questions particulières.
24. L’article 15 de la Directive générale 95/46/CE sur la protection
des données, surnommé «clause Kafka», interdit certaines décisions
entièrement automatisées ayant une portée importante, produisant
des «effets juridiques» à l’égard d’une personne ou «l’affectant
de manière significative». En outre, en 1992, la Commission européenne
a indiqué que «le traitement des données peut faciliter la prise
de décision mais on ne peut s’en contenter; le jugement humain doit
avoir sa place»
.
Dans un souci de protection de leurs droits et libertés, les personnes
concernées ont le droit d’obtenir une
intervention
humaine de la part du responsable du traitement, d’exprimer
leur point de vue et de contester la décision.
25. Il est toutefois très difficile, voire impossible, pour un
internaute de se rendre compte qu’il ne peut consulter certaines
publicités en ligne ou que des prix plus élevés lui sont proposés
car une intelligence artificielle l’a repéré comme étant «riche».
Il est donc difficile de contester la décision automatisée. L’article
15 n’aide pas beaucoup à réduire les bulles de filtres et les risques
de manipulation étant donné que ces activités peuvent ne pas affecter
une personne de manière significative au sens où cet article l’entend.
Selon la réglementation de l’Union européenne, le responsable du
traitement des données doit, sur demande, informer la personne «profilée»
de la logique sous-tendant ce traitement. Toutefois, la réglementation
en matière de protection des données ne s’applique habituellement
pas lorsque les personnes ne sont pas (in)directement identifiées.
Par conséquent, il convient de renforcer la position de la personne
«profilée» au moyen de technologies permettant une véritable transparence
du profilage.
3.2. Le
droit au respect de la vie privée
26. Un sujet de préoccupation est
celui de l’informatique en tant que technologie persuasive, autrement
dit la «captologie»: c’est-à-dire les activités de conception, de
recherche et d’analyse concernant les produits informatiques interactifs
(ordinateurs, téléphones mobiles, sites web, technologies sans fil,
applications mobiles, jeux vidéo, etc.) créés dans le but de modifier
l’attitude ou les comportements des gens
. Les technologies persuasives s’appuient
sur la collecte de données, leur analyse grâce à l’intelligence
artificielle et les interfaces intelligentes. La «captologie» permet
donc de procéder massivement à des expérimentations psychologiques
et des manœuvres de persuasion sur internet.
27. Par exemple, les applications pour smartphones ou les sites
web mesurent comment les gens interagissent avec elles. Des millions
d’utilisateurs sont ainsi testés quotidiennement sur internet. Les
tests a/b (a/b testing) –
expérience aléatoire à deux variables – permettent de rassembler
des connaissances sur nos comportements et sur la façon dont notre
cerveau fait des choix. Sur la base de ces évaluations, les applications
adaptent automatiquement leur contenu afin de persuader l’utilisateur
d’acheter un article, de cliquer sur une publicité précise ou de
prolonger leur durée d’utilisation de l’application. Comme pour
les machines à sous, la valeur financière d’une application dépend
en majeure partie du temps d’utilisation des consommateurs.
28. Ceux qui mettent au point les technologies persuasives appliquent
pour ce faire des connaissances neuroscientifiques et psychologiques,
mais ne suivent pas les codes de déontologie pour les psychologues
et pour la recherche psychologique. Facebook et les universitaires
de l’université Cornell ont par exemple tenté, en 2014, d’agir sur
les émotions d’environ 700 000 utilisateurs par l’intermédiaire
du flux d’actualités
sans le consentement des utilisateurs
ni l’autorisation d’un comité d’éthique. Les utilisateurs ignoraient
totalement qu’ils subissaient cette influence exercée au moyen d’un
flux d’actualité essentiellement négatif ou positif. Ces activités
de persuasion portent de toute évidence atteinte non seulement à
l’autonomie et à l’autodétermination des personnes, mais également
à leur liberté de pensée, de conscience et de religion
. Comment les gens peuvent-ils
choisir leur propre voie si par applications ou sites web interposés
des organisations les poussent à avoir un certain type d’émotion?
Cette question se fait tout particulièrement pressante lorsque des
personnes subissent une influence à leur insu, ce qui les rend on
ne peut plus impuissantes face à ces agissements.
29. Compte tenu de ces effets potentiellement négatifs sur les
humains, les psychologues ont établi leur propre code de déontologie.
Les droits des individus ne devraient pas pour autant être moins
bien protégés pour la simple raison que la relation avec l’entité
qui mène l’expérience psychologique n’est pas une relation psychologue-patient
traditionnelle. Il est assez incroyable que de telles expériences
soient réalisées par l’intermédiaire d’internet (et de l’internet
des objets), à grande échelle, à l’insu des sujets humains, qui
n’ont donc pas donné leur consentement à cet effet. Les citoyens
ne comprennent peut-être pas toujours bien de quelle façon ils peuvent
introduire une réclamation au sujet d’expériences de ce type menées
par un site web ou le propriétaire d’une application, en particulier
si la réglementation en matière de protection des données ne s’applique
pas, par exemple parce qu’aucune donnée à caractère personnel n’est
traitée.
30. Les gens se servent de coachs électroniques (
«e-coachs») pour mieux gérer leur
vie
. Ces
systèmes de coachs électroniques s’appuient souvent sur des robots
logiciels, qui sont intégrés dans de petits dispositifs portables.
À titre indicatif, Fitbit est un bracelet traqueur d’activité. Ce
dispositif analyse le comportement des gens, comme leurs habitudes
de sommeil ou leur régime alimentaire, afin de les inciter à améliorer
leur mode de vie (par exemple à mieux dormir, à faire davantage
d’exercice ou à perdre du poids). La somme des données enregistrées
par un coach électronique de ce type crée un double de la personne
sous forme de données, ce qui contribue à la «mise en données» (
datafication) des habitudes quotidiennes
de cette personne. C’est une forme d’auto-surveillance volontaire.
31. Bien que l’intention des utilisateurs d’un coach électronique
soit de prendre leur vie en main, ils doivent songer au fait que
des tiers sont impliqués dans cette technologie, dont les intérêts
ne correspondent peut-être pas aux leurs. En effet, des employeurs
pourraient tenter de contraindre leurs employés à porter un coach électronique
pour suivre leurs activités et les inciter à adopter tel ou tel
mode de vie. Les données enregistrées par le coach électronique
peuvent contenir des informations sur la santé qu’il convient de
traiter avec précaution. Il s’agit également d’une atteinte à la
vie privée informationnelle des gens puisque ceux-ci perdent la
maîtrise de leurs informations personnelles
. Hormis les employeurs,
les concepteurs des coachs électroniques ont le contrôle des données
collectées et pourraient donc les exploiter pour indiquer aux utilisateurs
comment modifier leurs habitudes de vie, d’où un risque de manipulation
indésirable où l’autonomie devient hétéronomie
.
Enfin, hormis les concepteurs, des tiers reçoivent et analysent
aussi les données collectées, par exemple pour leur propres fins
commerciales et parfois sans se soucier de l’heure à laquelle l’application
est utilisée ou le bracelet, porté
.
32. Les développeurs de technologies comme les coachs électroniques
devraient expliquer en toute transparence les méthodes de persuasion
qu’ils utilisent
. Il faudrait que les gens puissent
contrôler la manière dont les informations parviennent à ces développeurs.
Cela signifie également que les éléments relatifs au modèle de revenus
devraient être communiqués en toute transparence. En réponse à la
question de la qualité des coachs électroniques et de la responsabilité
de leurs développeurs, un label de qualité pourrait être mis au
point pour informer les utilisateurs de la qualité des applications
et des dispositifs de ce type.
33. Les robots de soins sont conçus pour prodiguer des soins à
des groupes vulnérables comme les enfants, les personnes âgées ou
les personnes handicapées. Leur utilisation peut aussi bien présenter
des avantages que des inconvénients pour l’autonomie et l’autodétermination
d’une personne. Ainsi, certains robots améliorent l’autonomie des
personnes âgées en les aidant à s’habiller ou à prendre un bain.
Le robot japonais Robear, par exemple, peut aider les patients à
se lever du lit sans intervention humaine.
34. En revanche, les robots de soins peuvent aussi empêcher une
personne âgée d’agir à sa guise si leurs développeurs les ont programmés
à cet effet. Jusqu’où pourrait aller un robot pour rappeler à quelqu’un
de prendre ses médicaments? Que se passerait-il si quelqu’un refusait
d’obtempérer? C’est le danger du paternalisme qui entre en jeu.
Dans ce cas, la technologie du robot pourrait forcer les utilisateurs
à procéder d’une certaine manière, étant donné que les développeurs
savent ce qui est le mieux pour ces utilisateurs
.
35. Les robots physiques incarnent l’intelligence artificielle.
Cette incarnation du robot offre la possibilité d’améliorer l’interaction
entre les humains et les machines. Il s’agit ici d’exploiter l’aptitude
des gens à attribuer une forme, des traits, des émotions et des
intentions humains aux machines, comme les robots d’assistance. La
robotique s’appuie sur cette aptitude humaine à l’anthropomorphisme
pour mettre au point des robots sociaux qui peuvent communiquer
avec les humains sur le plan affectif
.
Les ingénieurs pourraient mettre à profit ce phénomène socio-psychologique
puissant pour concevoir une technologie persuasive. Jusqu’à quel point
voulons-nous faire usage du lien affectif entre les personnes et
les machines? Et comment se prémunir contre les abus de la confiance
artificiellement créée entre humains et machines? Si les gens peuvent développer
une dépendance envers leurs téléphones mobiles ou des petites amies
virtuelles, on peut tout à fait imaginer qu’ils puissent développer
des sentiments forts pour des robots sociaux.
36. Ces dernières années, le débat s’est amplifié sur la façon
dont les nouvelles TIC influencent les aptitudes affectives et sociales
des gens et la qualité des relations humaines. La professeure Sherry
Turkle, psychologue clinicienne et sociologue, estime qu’en raison
de leur attachement à leurs appareils, les gens courent un risque
d’inaptitude sociale, c’est-à-dire qu’ils risquent d’être incapables
de faire face à d’autres êtres humains, avec leurs problèmes et
leurs défauts, et réticents à s’investir dans des relations humaines.
Le recours à la machine accroît le risque d’enfermement
.
37. Certains types de robots sont dotés d’une intelligence artificielle
et programmés pour imiter l’aptitude sociale afin, par exemple,
d’engager une conversation avec son utilisateur. C’est ainsi que
l’informatique affective peut permettre aux robots de soins de reconnaître
les émotions humaines et d’adapter en conséquence leur comportement
. Potentiellement,
les robots peuvent stimuler les relations humaines. Le robot néerlandais
Alice demande aux personnes dont il s’occupe si elles ont récemment
appelé les membres de leur famille, et ce afin de (re)nouer le contact
et d’entretenir les relations. Plusieurs études réalisées sur l’effet
de Paro, un robot phoque en peluche, dans le soin aux personnes
âgées hospitalisées semblent montrer que l’humeur de ces personnes
s’améliore et que le niveau de leur dépression diminue; en outre,
leur condition mentale s’améliore, facilitant ainsi la communication
entre personnes âgées et renforçant leurs liens sociaux.
Toutefois, le risque existe bel et bien
que les robots portent atteinte au droit au respect de la vie familiale,
ce qui serait une conséquence (in)volontaire de la façon dont ils
influencent leurs utilisateurs. Du fait de l’anthropomorphisme,
des gens vulnérables comme les personnes âgées pourraient considérer
un robot social comme leur petit-fils ou petite-fille. Si l’on n’y
prend pas garde, le patient pourrait bien se focaliser sur le robot plutôt
que sur les membres de sa famille ou d’autres êtres humains.
38. De façon similaire, les technologies virtuelles ou de réalité
augmentée peuvent accroître la capacité d’une personne à établir
et à nouer des relations avec ses semblables. C’est ainsi qu’elles
pourraient faciliter les communications entre les membres d’une
famille; Microsoft Research l’a montré en faisant la démonstration
de l’«holoportation»
. En revanche, ces technologies pourraient
également réduire la capacité de la personne à établir et développer
des relations si le monde virtuel était conçu de manière à la dissuader de
nouer des relations (dignes de ce nom) avec d’autres et à la faire
plutôt interagir avec des entités virtuelles.
3.3. La
dignité humaine
39. La dignité humaine est l’un
des principes de base des droits fondamentaux, mais elle sert aussi
de fondement aux libertés et d’autres droits. À cet égard, plusieurs
sources juridiques, dont la Charte sociale européenne (révisée)
(
STE
n° 163) du Conseil de l’Europe et la Charte des droits fondamentaux
de l’Union européenne
, soulignent l’importance, pour les
personnes âgées et les personnes handicapées, de mener une vie indépendante
et de participer pleinement à la société.
40. La communication et l’interaction avec les robots de soins
peuvent potentiellement influer sur les relations physiques et morales
dans notre société et pourraient avoir des conséquences positives,
mais aussi négatives, sur la dignité. Même si les «conséquences
invisibles» pour la dignité humaine peuvent s’avérer difficiles
à quantifier, la commission des affaires juridiques du Parlement
européen note dans son rapport sur la robotique
qu’elles devront tout de même être
envisagées si les soins et la compagnie d’un robot remplacent les
soins et la compagnie d’un humain. C’est ainsi que l’assistance
mécanique aux repas pourrait ne laisser aux personnes aucun choix
ni aucune autonomie quant à la façon de se nourrir ce qui pourrait
être dégradant. Dans le projet «Value Aging», financé par l’Union
européenne, il est recommandé que le robot soit obligatoirement
apte à avertir l’utilisateur de son intention de lui faire quelque
chose et que l’utilisateur ait dans tous les cas la possibilité
d’annuler l’action en question ou d’éteindre complètement le robot
.
41. Un appel en faveur de la conception et du développement de
solutions robotiques préservant les droits de l’homme a été lancé
par le contrôleur européen de la protection des données lors de
la 38e Conférence internationale des
commissaires à la protection des données et de la vie privée. Le
Conseil de l’Europe pourrait répondre à cet appel et donner des
orientations dans ce domaine.
3.4. Le
droit à la propriété
42. On peut distinguer deux évolutions
majeures en matière de propriété. En premier lieu, les objets que quelqu’un
possède – son domicile ou un terrain par exemple – peuvent devenir
partie intégrante d’une réalité virtuelle ou augmentée et les artefacts
créés dans ce cadre peuvent venir s’ajouter aux possessions du monde réel.
Ce qui soulève une question: si vous être propriétaire de votre
terrain, l’êtes-vous également de l’espace virtuel que d’autres
lui ont attribué? Par exemple, le fait que le développeur du jeu
Pokémon Go ait installé les personnages virtuels – les pokémons –
que les joueurs
doivent trouver et attraper sur
des maisons et dans des environnements bien réels a suscité un débat
sur la violation de propriété, les droits fonciers et les limites légales
de la propriété
.
43. En deuxième lieu, des questions de propriété se posent en
ce qui concerne l’utilisation d’un objet tel qu’une voiture robotisée,
un smartphone ou une imprimante. Deux éléments entrent en jeu. D’un
côté, ces dispositifs font partie de l’internet des objets et sont
donc connectés à des réseaux. Cela permet à des tiers d’exercer
un contrôle sur eux et même d’intervenir effectivement sur leur
utilisation, par exemple, au niveau du fabricant, en y accédant
à distance par le biais d’internet, ou en intégrant un logiciel
conçu à cet effet dans le dispositif. Il s’ensuit que la personne
qui possède un robot ou un dispositif ne peut jouir paisiblement
de ses biens.
44. Par ailleurs, le dispositif (acheté, loué ou utilisé par un
particulier) enregistre des données à des fins diverses. C’est vrai
pour une voiture robotisée, qui a besoin de ces données pour fonctionner
en toute sécurité. L’utilisateur du dispositif est-il le propriétaire
des données, qui peuvent être des données à caractère personnel (auxquelles
s’applique la réglementation sur la protection des données) ou non
(celles-ci pouvant alors entrer dans le champ d’application d’autres
réglementations, comme le droit de la propriété intellectuelle)?
45. Ces exemples montrent que dans le monde actuel, il ne va pas
de soi qu’une personne puisse interagir avec des biens tels que
des robots ou autres dispositifs ni utiliser ceux-ci, et ce alors
même qu’elle les a achetés. Les instruments juridiques en vigueur –
droit de la consommation, droit de la concurrence ou droit de la
propriété intellectuelle – peuvent permettre de régler ces questions.
Mais on pourrait également adopter un autre point de vue et affirmer,
en invoquant le droit de propriété, qu’une fois un objet acheté,
le fabricant ou des tiers ne peuvent plus toucher à ce bien, à moins
que le propriétaire n’y consente (par exemple pour les mises à jour
logicielles).
3.5. Sécurité,
responsabilité et obligations
46. Au cours des dernières décennies,
l’industrie automobile a construit des voitures de plus en plus intelligentes.
La robotisation des véhicules est une tendance à long terme
.
Depuis les années 2000, les voitures ont été progressivement dotées
de capacités automatisées, comme le régulateur de vitesse et les systèmes
de stationnement assisté. L’Evaluation des options technologiques
et scientifiques (STOA) du Parlement européen estime que la sécurité
doit être l’une de nos principales préoccupations, c’est-à-dire
qu’il faut trouver de quelle manière les robots et les humains peuvent
travailler ensemble sans accident.
47. L’Office parlementaire français d’évaluation des choix scientifiques
et technologiques et la commission des affaires juridiques du Parlement
européen estiment qu’il faut clarifier la question de la responsabilité
en ce qui concerne les actions des robots afin de garantir la transparence
et la sécurité juridique pour les producteurs et les consommateurs.
Il est au moins possible de recenser
les acteurs à qui la responsabilité d’un accident pourrait être
imputée: le constructeur automobile, les producteurs de logiciels
qui ont programmé l’intelligence artificielle du véhicule, le revendeur,
l’acheteur, l’administration routière ou autres. La question de
la responsabilité et des obligations dépendra du niveau d’automatisation
de la voiture
.
3.6. Liberté
d’expression
48. Google et Facebook sont devenus
deux des principaux contrôleurs de l’accès à l’information dans
notre société
.
Bien que Facebook insiste sur le fait qu’il n’est pas une entreprise
de média
, il s’agit de la première source
d’information pour près de la moitié des internautes
.
49. Les décisions automatisées peuvent promouvoir ou empêcher
le libre flux des informations. Si le programmeur de l’intelligence
artificielle fournit à l’utilisateur les outils permettant de rassembler
et de diffuser l’information, celait pourrait alors servir le droit
à la liberté d’expression. Par exemple, les outils qui réunissent les
flux RSS de sites de journaux peuvent faciliter la transmission
de l’information. Toutefois, si l’intelligence artificielle détermine
seulement quelles sont les informations à montrer, alors la liberté
de recevoir ou de communiquer des informations ou des idées importantes
sans qu’il puisse y avoir ingérence – protégée par l’article 10
de la Convention européenne des droits de l’homme (STE no 5) –
est remise en question. C’est ainsi qu’il existerait un risque de
«cocon d’information», de «caisse de résonance»
ou
de «bulle de filtres»
qui entraverait
notamment notre aptitude à former librement nos opinions. Le fait
de sélectionner (automatiquement) des informations dans un réservoir
apparemment infini peut lui aussi engendrer des limites. Dans le
cas de Facebook, un algorithme reposant sur des critères comme l’affinité
renforce celle-ci et les résultats de recherches sur Google dépendent
par exemple de l’historique des recherches. Selon le Partenariat
pour la jeunesse
: «Les deux cas de restriction de
l’information – décisions individuelles ou algorithmes automatiques –
peuvent priver une personne d’informations “différentes” et pertinentes
qui auraient dû être intégrées au processus décisionnel lié à une
participation active.»
50. Selon la Cour européenne des droits de l’homme, non seulement
il incombe aux médias de communiquer des informations et des idées
d’intérêt public, mais encore le public a le droit d’en recevoir
. Il y a un besoin d’établir des
orientations sur la façon dont les plus grands contrôleurs d’accès
à l’information, comme Google et Facebook, pourraient mettre leur
puissance algorithmique au service des droits de l’homme, notamment
en ce qui concerne le droit de recevoir et de communiquer des informations
et des idées
. En outre, la commission va préparer
un rapport sur «Les réseaux sociaux contribuent-ils à restreindre
la liberté d’expression?»
.
3.7. Interdiction
de la discrimination
51. Déléguer la prise de décision
à une intelligence artificielle peut permettre de lutter contre
les discriminations. Des outils d’intelligence artificielle ont
par exemple été mis au point afin d’éliminer le parti pris dans
les processus de recrutement; il s’agit notamment d’alertes automatiques
déclenchées par l’utilisation d’une formulation tendancieuse dans
les descriptions de postes
. Des technologies virtuelles ont
même été déployées pour promouvoir la diversité dans l’éducation
et combattre les discriminations
.
52. Néanmoins, les technologies peuvent aussi servir à porter
atteinte aux droits de l’homme. C’est également vrai à l’égard de
l’interdiction de la discrimination. Les groupes racistes peuvent
avoir recours à l’intelligence artificielle pour diffuser leur message.
Tout comme des algorithmes peuvent involontairement entraîner une
discrimination. C’est ainsi qu’en 2015 une application photo de
Google a associé le tag «gorilles» à la photo de deux personnes
noires. Ce tag était dû à l’intelligence artificielle qu’emploie
Google et qui suggère des catégories et des tags en s’appuyant sur
l’apprentissage automatique. Google a retiré le tag et présenté
ses excuses: Google considère que ses algorithmes s’amélioreront
si davantage d’internautes corrigent les tags erronés. Le système
peut donc être «entraîné» à ne pas suggérer de tags pouvant être considérés
racistes
. Il pourrait cependant être influencé
par des groupes de pression souhaitant promouvoir leurs idées.
53. L’apprentissage automatique dépend des données recueillies
dans la société; dans la mesure où la société connaît l’inégalité,
l’exclusion et autres relents de discrimination, ce sera également
le cas des données
.
L’apprentissage automatique reproduira les schémas discriminatoires
présents dans l’ensemble des données sur lesquelles il se fonde.
En conséquence, des décisions biaisées sont présentées comme le produit
d’un algorithme objectif et le recours inconsidéré à l’extraction
de données peut empêcher les membres des groupes vulnérables de
participer pleinement à la société
. Les
techniques de profilage constituent un sous-ensemble particulier
des décisions automatisées. Ces techniques sont par exemple mises
à profit pour évaluer l’aisance pécuniaire des internautes sur un
site donné afin de pouvoir automatiquement en ajuster les prix
. Ce recours au profilage algorithmique
peut être discriminatoire.
54. Afin de lutter contre la discrimination et la manipulation
reposant sur les algorithmes, il convient d’examiner la notion de
responsabilité algorithmique, au-delà de l’actuel «droit à une explication».
Dans la pratique, cela impliquerait d’examiner correctement le problème
du parti pris dans les ensembles de données, de prendre en compte
le risque de discrimination dans l’exploration de données, de mettre
en place une véritable transparence en ce qui concerne les algorithmes
et le profilage, de limiter les contextes d’utilisation de l’intelligence
artificielle et d’exiger des résultats évitant les effets disparates
.
3.8. Accès
à la justice et droit à un procès équitable
55. De plus en plus, les tribunaux
emploient des outils qui automatisent le processus décisionnel.
Les robots logiciels font miroiter la promesse que les décisions
juridiques seront plus cohérentes que celles prises par les humains
et que les procédures judiciaires seront considérablement écourtées.
L’intelligence artificielle basée sur des algorithmes peut aider
les parties à évaluer les chances d’aboutissement de leur action
en justice, ce qui pourrait entraîner une réduction du nombre de
procédures judiciaires. Le recours à des outils automatisés par
les juges pourrait également contribuer à assurer un procès équitable.
56. On peut imaginer que les ordinateurs soient capables de prendre
des décisions sensées dans des affaires simples, dans le respect
de l’article 6 de la Convention européenne des droits de l’homme
.
Toutefois, certains principes, destinés à garantir la transparence
et la reconnaissance de la responsabilité, devraient entrer en ligne
de compte lorsque des juges ont recours à un outil automatisé d’aide
au processus décisionnel. En particulier, l’on doit savoir que le
juge s’aide d’une intelligence artificielle et comment cet outil
influe sur les décisions prises; le juge doit demeurer responsable
de la décision finale, même si cette décision a été prise avec l’aide
de systèmes [informatiques], voire directement par de tels systèmes.
En outre, le fait que le juge ne suive pas les recommandations du
système [informatique] doit être enregistré
.
57. En revanche, lorsque l’intelligence artificielle n’est pas
neutre, le principe d’impartialité pourrait être violé. Le recours
accru à des algorithmes pour évaluer les risques dans le système
de justice américain soulève des questions en matière de responsabilité
et de transparence
. D’aucuns ont signalé que le logiciel utilisé
pour fixer les cautions était partial à l’encontre des Afro-Américains,
même si les répercussions réelles de ce logiciel ne sont pas vraiment
explicites
. En ce qui concerne les dispositifs
d’intelligence artificielle utilisés par les forces de police qui
conduisent à l’ouverture de poursuites pénales, il faut se garder
de considérer que les résultats qu’ils fournissent sont forcément
corrects, complets, voire pertinents concernant les suspects possibles
et potentiels
.
Le principe d’«égalité des armes» visé à l’article 6 de la Convention européenne
des droits de l’homme ne saurait être respecté si le procureur,
l’avocat de la défense et le juge ne peuvent pas vérifier la manière
dont l’outil d’intelligence artificielle utilisé par la police est
parvenu à sa conclusion. De tels outils devraient consigner ce qu’ils
font, dans quel but et comment ils sont parvenus à leurs conclusions.
58. Nous devrions envisager d’établir un cadre normatif minimal
dont les tribunaux qui recourent à l’intelligence artificielle devraient
tenir compte, afin de prévenir, dans la mesure du possible, l’élaboration
de cadres par les États eux-mêmes, ce qui présenterait le risque
d’offrir des niveaux variables de protection au sens de l’article
6 de la Convention européenne des droits de l’homme.
4. Deux
nouveaux droits potentiels
59. Pour que l’ère de la robotique
demeure favorable à l’homme, nous proposons d’introduire le droit
de pouvoir refuser de faire l’objet de profils, d’être géolocalisé,
manipulé, sous l’influence d’entraîneur électronique et donc d’avoir
un droit à la tranquillité et de pouvoir choisir entre le contact
humain et l’assistance par un robot.
4.1. Le
droit à la tranquillité
60. Mû par internet et l’internet
des objets, le profilage (par les entreprises et les acteurs étatiques)
est devenu courant. Étant donné qu’aujourd’hui, de nombreuses technologies
sont capables de fonctionner à distance, nous sommes une grande
majorité à ignorer jusqu’à l’existence de cette surveillance de
masse et sommes donc quelque peu démunis face à ce phénomène, car
les possibilités d’y échapper sont rares. Cette évolution silencieuse
et son impact sur la société et sur les droits de l’homme n’ont
suscité jusqu’à présent que peu d’attention dans le débat politique
et public.
61. Des chercheurs de l’université de Georgetown ont récemment
publié que la moitié des adultes américains, y compris ceux qui
sont innocents de toute infraction, sont inclus dans une base de
données de reconnaissance faciale dans le cadre d’une «séance d’identification
perpétuelle»
. Autre exemple, les consommateurs
s’étant inquiétés que des commerçants les repèrent via le réseau
Wi-Fi, le ministre néerlandais des Affaires économiques et l’ancien
secrétaire d’État à la Sécurité et à la Justice ont déclaré que, si
les gens ne souhaitaient pas être pistés, ils n’avaient qu’à éteindre
leurs smartphones
. Cette réponse semble indiquer
que le pistage et la localisation des personnes seraient un droit
jugé plus important que les droits des individus (au respect de
leur vie privée). Jusqu’à récemment, les gens pouvaient éteindre
leur PC s’ils ne voulaient pas être suivis en ligne. Dans notre
monde hyperconnecté, cette stratégie est devenue obsolète. L’effet
cumulatif de la surveillance de masse a suscité peu de débats. Des
applications et des incidents spécifiques ont donné lieu à des «mini-débats»,
l’issue de chacun d’eux étant un exercice d’équilibriste qui favorise
principalement la sécurité et les intérêts économiques nationaux.
Il ressort toutefois de ces débats que le droit des personnes au
respect de la vie privée et à l’anonymat disparaît progressivement mais
régulièrement.
62. Plusieurs auteurs ont mis l’accent sur certains effets néfastes
de l’omniprésence de la surveillance, du profilage ou de la notation,
ainsi que de la persuasion. Le Berlin Telecom Group considère que
la surveillance et le profilage à grande échelle constituent un
risque sans précédent pour la vie privée de chaque citoyen. Dans
le pire des scénarios, la planète pourrait devenir un «panoptique
mondial»
. L’enjeu, ce n’est pas uniquement
le risque d’abus, mais aussi le droit à l’anonymat et/ou le «droit
à la tranquillité», autrement dit, à l’ère du numérique, le droit
de ne pas être électroniquement mesuré, analysé ou coaché.
63. À cet égard, relevons que, dans le cadre de la modernisation
de la Convention no 108, deux nouveaux droits
ont déjà été introduits dans le projet de proposition
afin de renforcer la protection des
personnes à l’ère des mégadonnées. Ainsi, selon l’article 8: «Toute
personne a le droit: a) ne pas être soumise à une décision l’affectant
de manière significative, qui serait prise uniquement sur le fondement
d’un traitement automatisé de données, sans que son point de vue
soit pris en compte; … c) d’obtenir, à sa demande, connaissance
du raisonnement qui sous-tend le traitement de données, lorsque
les résultats de ce traitement lui sont appliqués …». En outre,
aux termes du nouvel article 8
bis,
«… Chaque Partie prévoit que les responsables du traitement, et
le cas échéant les sous-traitants, doivent procéder, préalablement
au commencement de tout traitement, à l’examen de l’impact potentiel
du traitement de données envisagé sur les droits et libertés fondamentales
des personnes concernées et doivent concevoir le traitement de données
de manière à prévenir ou à minimiser les risques d’atteinte à ces
droits et libertés fondamentales …». Les Parties sont également
tenues de «[prendre] en compte les implications du droit à la protection
des données à caractère personnel à tous les stades du traitement
des données»
.
64. D’autres aspects ont également été introduits dans le projet
actuel de modernisation de la Convention no 108,
notamment la minimisation des données et la sécurité, qui permettront
également de répondre aux préoccupations actuelles. Face à la complexité
croissante des systèmes de traitement de données, il faudra s’intéresser
à chacune des différentes étapes pour assurer une protection effective.
4.2. Le
droit de pouvoir choisir entre le contact humain et l’assistance
par un robot
65. Il se peut que les robots soient
en mesure d’assumer une série de tâches humaines. Face à la mise
au point de drones militaires autonomes, des centaines de scientifiques
et d’experts ont proposé d’interdire les armes autonomes offensives
fonctionnant sans «contrôle humain significatif»
. Ce concept de contrôle humain significatif
est également applicable à d’autres domaines – le judiciaire par
exemple – dans lesquels les systèmes autonomes ou d’intelligence
artificielle peuvent prendre des décisions cruciales. Lorsque l’interaction
et les contacts humains jouent un rôle central, comme dans l’éducation
des enfants et les soins aux personnes âgées ou aux personnes handicapées,
le «droit à de véritables rapports humains» pourrait avoir sa place.
66. Au niveau individuel, un droit à de véritables rapports humains
pourrait permettre de protéger le bien-être des personnes et d’éviter
la perte d’aptitude sociale et affective. La technologie moderne
devrait faciliter et non pas remplacer les
contacts humains: les robots devraient être cantonnés à un rôle
consistant à prodiguer des soins courants, les tâches nécessitant
une implication affective, intime et personnelle devant quant à
elles être confiées à des personnes.
5. Conclusions
67. Sur le plan politique, nous
n’avons pas suffisamment conscience de l’incidence croissante de
la science et de la technologie sur la société et sur la vie quotidienne
des personnes. Or ces questions se révèlent hautement polémiques
et devraient donc être traitées comme une priorité politique. Elles
supposent d’engager de nouvelles formes de débat public qui soient
ouvertes, éclairées et contradictoires, le plus en amont possible et
en y associant non seulement des législateurs et des experts, mais
aussi des organisations non gouvernementales (ONG), le grand public
et les médias. La science et la technologie ne peuvent contribuer au
progrès que si, concomitamment, il y a progrès démocratique. Je
propose de revenir sur ce point de manière plus approfondie dans
un futur rapport.
68. Selon moi, il est nécessaire de sensibiliser l’opinion et
de mieux faire connaître la «culture scientifique, technique et
industrielle» par le biais d’un débat éclairé. Car trop souvent,
les médias ont eu tendance à simplifier des sujets complexes en
privilégiant la polémique et le sensationnalisme, aux dépens d’une
analyse approfondie. Le public s’est donc forgé des idées bien tranchées,
qui empêchent par la suite de considérer ouvertement le problème
dans toute sa complexité. Par ailleurs, il importe d’intégrer dans
les programmes scolaires des débats éclairés sur les avancées scientifiques
et technologiques et d’y aborder les aspects éthiques afférents.
69. Nous avons aussi besoin de nouvelles formes de mécanismes
réglementaires et de gouvernance. De fait, compte tenu de la vitesse
à laquelle évoluent la science et les technologies, les législateurs
ont de plus en plus de mal à suivre le rythme et à élaborer les
textes réglementaires et normatifs qui s’imposent. Les délais sont
toujours plus courts et il devient difficile d’évaluer les risques
et les conséquences à moyen et long terme sur la santé, ainsi que
les implications pour les droits de l’homme. Je suis donc convaincu
que dans certains cas précis, nous aurions besoin d’un nouveau type
de législation qui puisse être réexaminé périodiquement (on parle
de «règles biodégradables») pour accompagner ces avancées scientifiques
et technologiques, qui sont rapides et souvent radicales, ainsi
que leurs applications.
70. La Convention du Conseil de l'Europe sur les droits de l'homme
et la biomédecine (Convention d’Oviedo) est un instrument juridique
très novateur, qui a été conçu dans les années 1990 pour relever
les défis en matière de droits de l’homme au vu des applications
de la biologie et de la médecine. Nous l’avons vu, aujourd’hui,
les domaines d’application NBIC débordent largement du champ biomédical.
Les préoccupations qui ont guidé l’élaboration de la convention
restent d’actualité. La Convention d’Oviedo fixe des principes directeurs
fondamentaux, dont certains, selon moi, pourraient être élargis
aux applications NBIC en dehors du domaine biomédical et respectés
dans ce contexte.
71. De l'homme soigné, on est passé à l'homme réparé. Ce qui se
profile pour demain est l'homme augmenté. Cette évolution pose de
nouvelles questions éthiques dues aux nouvelles interfaces entre
l’homme et la machine, ou encore entre l’homme et la molécule. La
loi doit permettre de résister à des pressions ou à des contraintes
qui imposeraient à des individus de se soumettre à des technologies
qui amélioreraient leurs performances, par exemple dans les domaines
du sport, des jeux, mais aussi du travail. De même, dans une ère
numérique caractérisée par une perpétuelle mutation, l’homme devrait
avoir le droit de refuser d’être mesuré, analysé ou coaché.
72. Il est urgent que les procédures de traitement automatisé
soient soumises à un contrôle plus soutenu en ce qui concerne la
collecte, la manipulation et l’utilisation des données à caractère
personnel et j’encourage vivement la conclusion rapide du processus
de modernisation de la Convention no 108.
Jusqu’à dernièrement, les procédures reposaient sur la contribution
d’experts, de spécialistes du domaine, qui traduisaient sous forme de
règles leurs observations et leurs expériences, afin d’établir un
modèle. Aujourd’hui, ces experts ont été remplacés par des processus
d’apprentissage automatique (algorithmes) qui parviennent à tirer
ces mêmes règles des données mêmes.
73. Quelques clics et quelques métadonnées, filtrées en appliquant
ce type de modèle, suffisent pour dresser le portrait-robot de quelqu’un
et révéler ses caractéristiques les plus intimes. L’analyse des préférences
sur les réseaux sociaux par exemple a permis de déterminer l’orientation
politique (85 %), sexuelle (83 %) et religieuse (82 %) ainsi que
l’origine ethnique (95 %) de certaines personnes avec des niveaux d’exactitude
supérieurs à ceux obtenus par les hommes. Grâce à la modélisation
(au profilage) des personnes, ces méthodes servent également à anticiper
les comportements. Les GAFA (Google, Apple, Facebook, Amazon) font
des investissements considérables dans cette recherche, qui se développe
rapidement et exige un cadre juridique.
74. Tout au long du présent rapport, nous avons vu que diverses
applications des nouvelles technologies et de l’intelligence artificielle
peuvent avoir des répercussions profondes sur les droits de l’homme
et qu’il faut donc les réglementer. Le public doit être informé
de la valeur des données qui sont collectées et de leur utilisation.
Un travail de réflexion doit être engagé sans délai, car le législateur
risque de se retrouver démuni face au développement de ces technologies
par les entreprises et les grands groupes rompus à la commercialisation
rapide des innovations. Nous devons donc encadrer ces applications
sur le plan éthique et légal. Pour ce faire, nous devons améliorer
l’échange entre les statisticiens, les spécialistes des TI, les
experts juridiques, les sociologues et les spécialistes de l’éthique.
Un tel échange pluridisciplinaire qui reflète la nature hybride
des algorithmes est la seule solution pour commencer à maîtriser,
ces problèmes et mettre en place une protection juridique effective.
75. Dans un monde en mouvement rapide, l’évaluation scientifique
est une condition essentielle du maintien de la place de la démocratie
représentative dans le fonctionnement de nos institutions. Par conséquent,
je propose que les parlements nationaux se dotent de structures
de «technology assessment» et que d’autre part, ils favorisent des
programmes éducatifs et des échanges réguliers entre les sciences
humaines et sociales et les sciences technologiques.
76. Au niveau européen, il convient de mieux coordonner l’action
du Conseil de l’Europe et de ses missions sur les droits de l’homme
avec le travail mené par l’Union européenne ainsi qu’avec les parlements
nationaux. Par exemple, l’Union européenne soutient déjà 120 projets
de robotique par le biais du programme SPARC, qui finance les innovations
apportées dans ce domaine par des sociétés européennes et des instituts
de recherche. A cet effet, 700 millions d’euros ont été débloqués
pour une utilisation jusqu’en 2020 dans le cadre du programme de
recherche et d’innovation de l’Union européenne «Horizon 2020».
Par ailleurs, la commission des affaires juridiques du Parlement
européen a adopté, en janvier 2017, le rapport de Mme Mady Delvaux
; par la suite, la Résolution
du Parlement européen (2015/2103(INL))
était adoptée le 16 février 2017
contenant des recommandations à la Commission concernant des règles
de droit civil sur la robotique qui comportent notamment des dispositions
sur la responsabilité, les droits de propriété intellectuelle, la normalisation,
la sûreté et la sécurité.
77. Le réseau de l’EPTA, dont à la fois le Parlement européen
et l’Assemblée parlementaire du Conseil de l’Europe sont membres,
pourrait être l’un des lieux d’organisation d’auditions publiques
et contradictoires réunissant experts, politiques et citoyens. Je
préconise également de travailler sur les questions de l’éthique, de
la science et de la technologie en lien avec l’Organisation des
Nations Unies pour l'éducation, la science et la culture (UNESCO)
pour harmoniser les recommandations au niveau mondial.