1. Introduction
1. En 2021, le Comité des Ministres
du Conseil de l’Europe a décidé de créer un Comité
ad
hoc sur l’intelligence artificielle (CAI) et de lui confier
l’élaboration d’un «instrument juridique adéquat sur le développement,
la conception et l’application des systèmes d’intelligence artificielle
(IA), qui se fonde sur les normes du Conseil de l’Europe en matière
de droits de l’homme, de démocratie et d’État de droit et est propice à
l’innovation, qui peut être composé d’un instrument juridique contraignant
à caractère transversal qui inclut notamment des principes généraux
communs, ainsi que d’instruments additionnels contraignants ou non contraignants
afin de relever les défis liés à l’application de l’IA dans des
secteurs spécifiques»
. Le CAI est composé de représentant·es
des États membres, de l’Union européenne, des États observateurs
auprès du Conseil de l’Europe, d’autres États non européens intéressés
(Argentine, Australie, Costa Rica, Israël, Pérou et Uruguay), de
représentant·es des organes et comités compétents du Conseil de
l’Europe, d’autres organisations internationales et de représentant·es
de la société civile et du secteur privé. Le CAI a tenu dix réunions
entre avril 2022 et mars 2024 pour établir la version finale d’un
projet
de Convention-cadre sur l’intelligence artificielle, les droits
de l’homme, la démocratie et l’État de droit («le projet de Convention-cadre» ou «PCC»). Le CAI a
soumis le PCC au Comité des Ministres le 15 mars 2024 et ce dernier
l’a transmis à l’Assemblée parlementaire le 20 mars 2024, invitant
l’Assemblée à donner un avis sur le texte dans les meilleurs délais.
L’Assemblée s’est engagée à donner un avis à sa partie de session
d’avril 2024, afin de permettre l’adoption de la Convention-cadre
(«CC») par le Comité des Ministres en temps voulu. Au vu de ces délais,
l’avis devait être adopté par la commission des questions juridiques
et des droits de l’homme (une fois saisie par le Bureau de l’Assemblée)
et débattu en plénière selon la procédure d’urgence. La commission
m’a désignée rapporteure lors de sa réunion du 4 mars 2024, sous
réserve de la mise au point finale du PCC et de sa transmission
à l’Assemblée.
2. En ma qualité d’ancienne présidente de la sous-commission
sur l’intelligence artificielle et les droits de l’homme de l’Assemblée
(2022-2023), j’ai participé activement à l’ensemble du processus
de négociation du PCC et j’ai assisté à plusieurs réunions plénières
du CAI au nom de l’Assemblée. Comme d’autres organes du Conseil
de l’Europe et représentant·es de la société civile, j’ai eu la
possibilité de soumettre des commentaires écrits et des propositions
rédactionnelles sur le texte et de les présenter oralement au besoin
. Cela étant, je n’ai pu participer
qu’aux réunions plénières et non aux sessions du groupe de rédaction,
qui étaient réservées aux Parties potentielles à la Convention-cadre
et précédaient les réunions plénières. Je voudrais souligner que certains
des derniers compromis sur le texte (en particulier sur son champ
d’application) ont été décidés par le groupe de rédaction aux tout
derniers stades du processus et ont donc été soumis à la plénière
du CAI sans qu’il soit possible, faute de temps, de les analyser
et d’en débattre de manière approfondie.
3. Cette Convention-cadre sera le tout premier traité international
juridiquement contraignant sur l’intelligence artificielle. Je suis
consciente que l’élaboration et la négociation du PCC ont été une
tâche et un processus complexes, étant donné la nécessité de concilier
les positions des États de différentes régions du monde. La valeur
ajoutée de la convention résidera également dans sa portée mondiale,
puisqu’elle réunira des Parties de différents continents et de diverses
traditions juridiques qui aspirent à réglementer l’IA sous l’angle
des droits humains, de la démocratie et de l’État de droit. L’intelligence
artificielle est un domaine qui soulève des problématiques de portée
mondiale, qu’il faut traiter et réglementer au niveau international.
Les chefs d’État et de gouvernement du Conseil de l’Europe ont bien
compris l’importance de ce sujet et ils se sont engagés, dans la
Déclaration de Reykjavík de mai 2023, à «assurer un rôle de premier
plan au Conseil de l’Europe dans l’élaboration de normes à l’ère
du numérique pour sauvegarder les droits de l’homme en ligne et
hors ligne, y compris en finalisant, en priorité, la Convention-cadre
du Conseil de l’Europe sur l’intelligence artificielle
.»
Le Comité des Ministres a maintenant la responsabilité de faire
en sorte que la convention finale soit pleinement conforme aux principes
et aux valeurs du Conseil de l’Europe.
4. Dans mon exposé des motifs, je commence par présenter les
travaux antérieurs et actuels de l’APCE sur l’IA (chapitre 2). J’expose
ensuite brièvement les grandes lignes du PCC (chapitre 3). Puis
je présente les critiques formulées par les différentes parties
prenantes (chapitre 4). Enfin, je donne ma propre évaluation du projet
et je propose quelques amendements, qui pourront être intégrés dans
l’avis de l’Assemblée, le but ultime étant d’améliorer le texte
de la Convention-cadre en vue de sa mise au point définitive (chapitre 5).
2. Les travaux antérieurs et actuels
de l’Assemblée sur l’intelligence artificielle
5. Les travaux antérieurs de l’Assemblée
sur le thème de l’intelligence artificielle montrent qu’elle a toujours été
favorable à la recherche du juste équilibre entre, d’un côté, l’atténuation
des risques posés par l’IA et, de l’autre, le souci de mettre pleinement
à profit les avantages qu’offre cette technologie. L’Assemblée est fermement
convaincue qu’il est nécessaire d’instaurer un cadre réglementaire
transversal pour l’IA, définissant des principes spécifiques fondés
sur la protection des droits humains, de la démocratie et de l’État
de droit.
6. En octobre 2020, l’Assemblée a adopté une série de résolutions
et de recommandations (fondées sur sept rapports élaborés par ses
différentes commissions
)
sur les possibilités et les risques que l’IA présente pour la démocratie,
les droits humains et l’État de droit. L’Assemblée parlementaire
a approuvé une série de principes éthiques fondamentaux qui devraient
être respectés lors du développement et de la mise en œuvre des
applications d’IA. Ces principes, qui ont été précisés dans une
annexe commune aux rapports, sont la transparence, notamment l’accessibilité
et l’explicabilité, la justice et l’équité, y compris la non-discrimination, la
prise de décision par une personne, qui est en responsable, et la
mise à disposition de voies de recours, la sûreté et la sécurité,
et la protection de la vie privée et des données. Cela dit, l’Assemblée
considère que «les principes éthiques d’autoréglementation et les
politiques mises en place volontairement par des acteurs privés ne
sont pas des outils adaptés ni suffisants pour réglementer l’IA,
car ils n’entraînent pas nécessairement de contrôle démocratique
ni d’obligation de rendre des comptes.» Dans chacune des situations
examinées dans ses rapports, l’Assemblée a conclu qu’une réglementation
juridique était nécessaire pour éliminer, ou réduire le plus possible,
les risques pour la démocratie, les droits humains et l’État de
droit. Elle a donc invité le Comité des Ministres à exprimer son
soutien quant à l’élaboration d’un «instrument juridiquement contraignant gouvernant
l’intelligence artificielle, éventuellement sous la forme d’une
convention» [qui soit] «fondé sur une approche globale, se rapporte
à l’ensemble des cycles de vie des systèmes fondés sur l’IA, soit
destiné à l’ensemble des parties prenantes et comprenne des mécanismes
afin de garantir la mise en œuvre de cet instrument» (voir paragraphe 4
de la
Recommandation 2181
(2020) «La nécessité d’une gouvernance démocratique de l’intelligence
artificielle»). Une telle convention devrait être ouverte aux États
non-membres (voir paragraphe 11, alinéa 1, de la
Recommandation 2185 (2020) «Intelligence artificielle et santé: défis médicaux,
juridiques et éthiques à venir», et paragraphe 2 de la
Recommandation 2186 (2020) «Intelligence artificielle et marchés du travail: amis
ou ennemis?»).
7. Dans ses résolutions, l’Assemblée a estimé que les acteurs
privés devaient entrer dans le champ d’application de l’instrument
juridiquement contraignant susmentionné. Par exemple, dans la
Résolution 2341 (2020) «La nécessité d’une gouvernance démocratique de l’intelligence
artificielle», elle déclare qu’un tel instrument devrait «comporter
des dispositions visant à limiter les risques d’utilisation des
technologies fondées sur l’IA par des États et des
acteurs privés pour contrôler les
personnes» (paragraphe 14, alinéa 5) et «comporter des garde-fous
pour prévenir les menaces à l’ordre démocratique résultant de la
concentration de données, d’informations, du pouvoir et des capacités
d’influence dans les mains de quelques grands
acteurs privés du
développement et de la fourniture de technologies et de services
fondés sur l’IA, […] et comporter également des dispositions visant
à garantir que les activités de ces acteurs sont soumises à un contrôle démocratique»
(paragraphe 14, alinéa 6). Pour l’Assemblée, l’instrument juridiquement
contraignant sur l’IA devrait en effet être destiné à
toutes les parties prenantes (paragraphe 4,
alinéa 2, de la
Recommandation 2181
(2020)).
8. Dans sa
Résolution 2341
(2020) «La nécessité d’une gouvernance démocratique de l’intelligence artificielle»,
l’Assemblée a estimé que l’instrument juridiquement contraignant
préconisé devrait garantir que les technologies fondées sur l’IA
respectent les normes du Conseil de l’Europe (en matière de droits
humains, de démocratie et d’État de droit), ainsi que les principes
éthiques fondamentaux précités. Il devrait non seulement réduire
au minimum le risque que l’IA soit utilisée pour nuire à la démocratie
(notamment par l’ingérence dans les processus électoraux et la manipulation),
mais aussi tendre à maximiser les effets positifs que l’IA peut
avoir sur le fonctionnement de la démocratie, notamment en améliorant
la mise en œuvre de la responsabilité des gouvernements, la lutte
contre la corruption et la transparence et en rendant la démocratie plus
directe. En outre, pour que l’obligation de rendre des comptes soit
respectée, le cadre juridique devrait prévoir un mécanisme de contrôle
indépendant et proactif faisant intervenir toutes les parties prenantes concernées,
ce qui permettrait de garantir le respect effectif de ses dispositions.
9. Dans sa
Résolution 2343
(2020) «Prévenir les discriminations résultant de l’utilisation
de l’intelligence artificielle», l’Assemblée souligne que de nombreuses
utilisations de l’IA peuvent avoir une incidence directe sur l’égalité
de l’accès aux droits fondamentaux. Elles peuvent également être
à l’origine de discriminations ou exacerber des discriminations
existantes, certains groupes (les femmes et les minorités par exemple)
se voyant refuser l’accès aux droits de manière disproportionnée.
L’Assemblée a donc appelé les États membres à élaborer une législation,
des normes et des procédures nationales claires visant à garantir
que tout système fondé sur l’IA «respecte les droits à l’égalité
et à la non-discrimination partout où son utilisation risquerait d’affecter
la jouissance de ces droits». Les gouvernements devraient informer
les parlements avant le déploiement de technologies fondées sur
l’IA par les autorités publiques. Les États membres devraient promouvoir
l’inclusion des femmes, des filles et des minorités dans les filières
d’enseignement scientifique et technologique, soutenir la recherche
sur les biais de données et promouvoir la culture numérique. Dans
sa
Recommandation 2183
(2020), l’Assemblée appelle le Comité des Ministres à tenir
compte des conséquences particulièrement graves que pourrait avoir
le recours à l’IA sur la jouissance des droits à l’égalité et à
la non-discrimination lorsqu’il évaluera la faisabilité d’un cadre
juridique international applicable à l’IA
.
10. Dans sa
Résolution 2342
(2020), «Justice par algorithme – Le rôle de l’intelligence
artificielle dans les systèmes de police et de justice pénale
», l’Assemblée appelle à la mise
en place de cadres juridiques nationaux pour réglementer l’utilisation
de l’IA dans le travail de la police et de la justice pénale, sur
la base des principes éthiques fondamentaux mentionnés plus haut.
Elle souligne que l’utilisation de l’IA dans les systèmes de police
et de justice pénale peut avoir une incidence particulièrement grave
sur les droits humains si elle n’est pas correctement réglementée.
Son utilisation peut être incompatible avec les principes éthiques fondamentaux,
notamment la transparence, la responsabilité de la prise de décision,
la justice et l’équité. Dans ce contexte, l’Assemblée recommande
notamment aux États membres de tenir un registre de toutes les applications
d’IA utilisées, de veiller à ce que chaque application d’IA repose
sur une base juridique suffisante, de procéder, initialement et
périodiquement, à des études d’impact de ces applications sur les
droits humains, de mettre en place des mécanismes de contrôle efficaces
et indépendants et de veiller à ce qu’il y ait un contrôle juridictionnel
effectif. Dans sa
Recommandation 2182
(2020), l’Assemblée appelle également le Comité des Ministres
à tenir compte de l’impact particulièrement grave que pourrait avoir
le recours à l’IA sur les droits humains dans ce contexte, lorsqu’il
évaluera la faisabilité d’un cadre juridique européen.
11. Dans sa
Recommandation 2185
(2020) «Intelligence artificielle et santé: défis médicaux,
juridiques et éthiques à venir
», l’Assemblée
souligne qu’elle préconise une convention sur l’IA mettant l’accent
sur les incidences de l’intelligence artificielle sur les droits
humains en général et sur le droit à la santé en particulier. Elle
recommande au Comité des Ministres d’encourager les États membres
à élaborer des stratégies nationales d’approche globale pour l’utilisation
de l’IA dans les soins de santé, à mettre en place des systèmes d’évaluation
et d’autorisation des applications d’IA dans le secteur de la santé
et à élaborer un cadre juridique pour clarifier la responsabilité
des parties prenantes. L’Assemblée souligne également l’importance
de garantir «le respect de la vie privée, la confidentialité et
la cybersécurité des données de santé sensibles à caractère personnel»
(dans le but de prévenir toute utilisation souveraine ou commerciale
abusive de ces données) et le consentement éclairé des utilisateurs
des applications de santé reposant sur l’IA. Ces applications ne devraient
pas «remplace[r] complètement le jugement humain» afin que les décisions
prises dans le cadre des soins de santé professionnels «so[ie]nt
toujours validées par des professionnels de santé dûment formés».
12. Dans sa
Résolution 2345
(2020) «Intelligence artificielle et marchés du travail: amis
ou ennemis?»
, l’Assemblée
appelle l’attention sur le fait qu’«utilisée de manière déraisonnable,
l’IA risque de perturber le marché du travail, de fragmenter la
vie professionnelle et d’exacerber les inégalités socioéconomiques». L’Assemblée
note que «l’utilisation de l’IA pour le recrutement et dans les
situations ayant une incidence sur les droits des travailleurs devrait
toujours être traitée comme étant “à haut risque” et être soumise
dès lors à des exigences réglementaires plus strictes»; elle souligne
également qu’il est important que «la mise en œuvre de technologies
d’IA affectant les marchés du travail et les droits sociaux individuels
fasse l’objet d’un contrôle humain substantiel» et la nécessité
de «garantir que toute utilisation de techniques de surveillance
sur le lieu de travail est soumise à des précautions particulières
en matière de consentement et de protection de la vie privée». Par
conséquent, l’Assemblée appelle les États membres à adopter toute
une série de mesures à cet égard, et notamment à élaborer des stratégies
nationales pour une utilisation responsable de l’IA, à obliger les développeurs
d’IA de toujours informer les utilisateurs lorsque ces derniers
sont en contact avec des applications d’IA, à concevoir un cadre
réglementaire qui favorise la complémentarité entre les applications d’IA
et le travail humain et garantisse que ces applications font l’objet
d’un contrôle humain approprié, et à faire en sorte que les algorithmes
utilisés dans la sphère publique soient compréhensibles, transparents,
éthiques et sensibles au genre. L’Assemblée préconise également
la mise en place d’une «éducation à l’IA» par le biais des programmes
d’éducation au numérique pour les jeunes et des parcours d’apprentissage
tout au long de la vie pour tous. Dans sa
Recommandation 2186 (2020) sur le même sujet, l’Assemblée recommande que l’instrument
juridique européen sur l’IA vise aussi le besoin d’une protection
renforcée des droits sociaux liés au travail.
13. Dans sa
Résolution 2344
(2020) «Les interfaces cerveau-machine: nouveaux droits ou
nouveaux dangers pour les libertés fondamentales?», l’Assemblée
évoque «les avantages potentiels immenses des neurotechnologies,
en particulier dans le domaine médical», tout en soulignant la «menace
sans équivalent et sans précédent pour les valeurs fondamentales
des droits humains et de la dignité humaine» que peuvent représenter
les interfaces cerveau-machine (ICM). Les technologies ICM doivent
être développées dans le respect des droits humains et de la dignité
humaine; elles devraient être sûres; elles ne devraient pas être utilisées
contre la volonté d’un sujet ou d’une manière qui empêche le sujet
d’agir librement et d’être responsable de ses actes; et elles ne
devraient pas créer de statut privilégié pour leurs utilisateurs. L’Assemblée
invite donc les États membres à établir des cadres éthiques et juridiques
pour la recherche, le développement et l’application des technologies
ICM et à envisager la création de nouveaux «neurodroits» tels que
la liberté cognitive, le droit à l’intimité mentale, l’intégrité
mentale et la continuité psychologique. Enfin, dans sa
Recommandation 2184 (2020), elle appelle le Comité des Ministres à tenir compte
de l’impact de l’IA sur les droits humains en lien avec les systèmes
ICM, lors de l’évaluation de la faisabilité d’un cadre juridique pour
l’intelligence artificielle.
14. Dans sa
Résolution 2346
(2020) «Aspects juridiques concernant les «véhicules autonomes»
, l’Assemblée souligne que la circulation
des véhicules semi-autonomes ou autonomes peut créer un «vide en matière
de responsabilité», lorsque l’être humain présent à bord du véhicule
ne peut être tenu responsable d’actes pénalement répréhensibles
ou délictuels. Il pourrait être nécessaire de reconsidérer le partage
de la responsabilité pénale ou civile ou de prévoir des solutions
qui puissent se substituer à cette responsabilité. L’Assemblée estime
que, puisque les systèmes modernes de conduite automatisée (SCA)
reposent sur l’IA, les normes éthiques et réglementaires applicables
à l’IA en général devraient également être appliquées à son utilisation
dans les véhicules autonomes. Les États membres devraient veiller
à ce que la réglementation concernée soit conforme aux normes en
matière de droits humains et d’État de droit, notamment au respect du
droit à la vie, du droit à la vie privée et de la sécurité juridique.
L’Assemblée recommande au Comité des Ministres de tenir compte des
effets particulièrement graves que pourrait avoir sur les droits
humains le recours à l’intelligence artificielle dans les systèmes
de conduite automatisée lorsqu’il évaluera la nécessité et la faisabilité
d’un cadre juridique applicable à l’intelligence artificielle.
15. Très récemment, dans sa
Résolution 2485
(2023) «Émergence des systèmes d’armes létales autonomes (SALA)
et leur nécessaire appréhension par le droit européen des droits
humains», l’Assemblée aborde les préoccupations que suscite l’émergence
des SALA (systèmes d’armes pouvant attaquer et sélectionner des
cibles sans intervention humaine). Elle est favorable à une réglementation
claire du développement et de l’usage des SALA afin de veiller au
respect du droit international humanitaire et des droits humains,
sur la base d’un contrôle humain. Dans ce contexte, elle a approuvé
une approche en deux volets proposée par un groupe d’États européens
Parties à la Convention sur certaines armes classiques (CCAC). Selon
cette proposition, les SALA fonctionnant totalement en dehors du
contrôle humain devraient rester interdites, tandis que d’autres
armes létales présentant des éléments d’autonomie devraient être
soumises à un contrôle humain approprié, offrir la capacité d’imputer
la responsabilité à une personne et l’obligation de rendre des comptes,
faire l’objet de mesures d’atténuation des risques et présenter
des garanties suffisantes. Selon cette résolution, la Conférence
des États parties à la CCAC est l’enceinte appropriée pour convenir
de la future réglementation des SALA. Dans l’attente d’un accord
sur une réglementation contraignante (sous la forme d’un protocole
à la CCAC), l’Assemblée propose l’élaboration d’un code de conduite
non contraignant.
16. Outre ses rapports et ses résolutions, l’Assemblée parlementaire
a organisé plusieurs événements axés sur l’IA ou y a participé
.
Le président de l’Assemblée, Theodoros Rousopoulos, a désigné l’IA
comme l’une de ses grandes priorités dans son discours inaugural
à l’Assemblée lors de la première partie de session de 2024. Il
a déclaré: «L’IA doit être accueillie positivement, mais elle doit
rester un outil au service des capacités humaines et ne pas se substituer
à la volonté et à l’autonomie de l’être humain». L’Assemblée dispose
d’une sous-commission spéciale au sein de la commission des questions
juridiques et des droits de l’homme, la sous-commission sur l’intelligence
artificielle et les droits de l’homme, qui est actuellement présidée
par Damien Cottier (Suisse, ADLE). Pendant ma présidence, cette
sous-commission a tenu une réunion et un échange de vues sur les
bots sociaux et la menace qu’ils représentent pour le débat démocratique
et les élections. L’Assemblée continuera à travailler sur les problèmes
que pose l’IA et sur les avantages qu’offre cette technologie au
regard des droits humains, de la démocratie et de l’État de droit,
en publiant de nouveaux rapports et de nouvelles résolutions sur
des sujets émergents ou sectoriels
, en suivant
de près les travaux normatifs du CAI et d’autres organismes intergouvernementaux
et en contribuant à ces travaux, le cas échéant
.
Elle souhaite aussi, cela va de soi, participer en qualité d’observateur
au futur mécanisme de suivi mis en place par la Convention-cadre
(la Conférence des Parties).
3. Grandes lignes du projet de Convention-cadre
17. Le chapitre I du PCC contient
des dispositions générales telles que l’objet et le but de la convention (article 1),
la définition des systèmes d’intelligence artificielle aux fins
de la convention (article 2) et le champ d’application de la convention
(article 3). Comme cela est expliqué dans le
projet
de rapport explicatif («PRE»), «aucune disposition de la présente Convention-cadre
n’a pour objet de créer […] de nouvelles obligations en matière
de droits de l’homme, ni de compromettre la portée et le contenu
des protections applicables existantes, mais plutôt, en énonçant
diverses obligations juridiquement contraignantes contenues dans
ses chapitres II à VI, de faciliter la mise en œuvre effective des
obligations applicables en matière de droits de l’homme de chaque
Partie dans le contexte des nouveaux défis soulevés par l’intelligence
artificielle.» En ce qui concerne le champ d’application, la disposition
la plus difficile et la plus contestée tout au long des négociations,
l’article 3, paragraphe 1, alinéa a), impose à chaque Partie d’«applique[r]
la présente Convention aux activités menées dans le cadre du cycle
de vie des systèmes d’intelligence artificielle entreprises par
les pouvoirs publics ou des acteurs privés qui agissent pour leur
compte.» L’article 3, paragraphe 1, alinéa b), oblige toutes les
Parties à «répond[re] aux risques et aux impacts découlant des activités
menées dans le cadre du cycle de vie des systèmes d’intelligence
artificielle par des acteurs privés dans la mesure où ils ne sont
pas couverts par l’alinéa a) d’une manière conforme à l’objet et
au but de la Convention.» Comme cela est expliqué dans le PRE, «répondre
aux risques ne se limite pas simplement à reconnaître ces risques,
mais requiert l’adoption ou le maintien de mesures législatives,
administratives ou autres appropriées pour donner effet à cette
disposition ainsi qu’à la coopération entre les Parties […]». Chaque
Partie est tenue de préciser dans une déclaration «la manière dont
elle entend mettre en œuvre cette obligation […], soit en appliquant
les principes et obligations énoncés aux chapitres II à VI de la
Convention-cadre aux activités des acteurs privés, ou en prenant
d’autres mesures appropriées». Si les Parties peuvent, à tout moment,
modifier leur déclaration, le PRE dispose que «[p]our les Parties
qui ont choisi de ne pas appliquer les principes et obligations
de la CC en relation aux activités d’autres acteurs privés, les
rédacteurs attendent des approches de ces Parties qu’elles se développent
dans le temps alors que leurs approches vis-à-vis de la régulation
du secteur privé évoluent.» L’article 3, paragraphe 2, exclut du
champ d’application de la CC les «activités menées dans le cadre
du cycle de vie des systèmes d’intelligence artificielle liées à
la protection de ses intérêts de sécurité nationale, étant entendu
que ces activités sont menées de manière compatible avec le droit
international applicable, y compris les obligations nées du droit
international des droits de l’homme, et dans le respect de ses institutions
et processus démocratiques.» Le PRE précise à cet égard que «[t]outes
les activités régulières de maintien de l’ordre pour la prévention,
la détection, l’investigation et la poursuite des crimes, y compris
les menaces à la sécurité publique, demeurent également dans le
champ d’application de la CC si, et dans la mesure où, les intérêts
de sécurité nationale des Parties ne sont pas en jeu.» Enfin, les
paragraphes 3 et 4 de l’article 3 excluent les «activités de recherche
et de développement» à certaines conditions («à moins que des essais ou
des activités similaires ne soient entrepris d’une manière telle
qu’ils sont susceptibles de porter atteinte aux droits de l’homme,
à la démocratie et à l’État de droit») ainsi que les «questions
relatives à la défense nationale».
18. Le chapitre II contient deux dispositions consacrant des obligations
générales en matière de protection des droits humains (article 4)
et d’intégrité des processus démocratiques et de respect de l’État
de droit (article 5). Si les droits humains auxquels il est fait
référence doivent être compris comme désignant les obligations en
matière de droits humains découlant des traités internationaux que
les Parties sont déjà tenues de respecter (une liste est fournie
dans le PRE) ainsi que les protections offertes par le droit interne,
le PRE reconnaît qu’il n’existe pas de définition communément admise
de l’expression «institutions et processus démocratiques» et donne
quelques exemples de domaines dans lesquels l’IA peut présenter
des risques: le principe de séparation des pouvoirs, l’indépendance
judiciaire, l’accès à la justice (ces trois éléments étant également
mentionnés dans le libellé de l’article 5, paragraphe 1), un système
efficace d’équilibre des pouvoirs, le pluralisme politique et des
élections libres et équitables.
19. Le chapitre III énonce les «principes généraux communs que
chaque Partie met en œuvre à l’égard des systèmes d’intelligence
artificielle». Il s’agit notamment de la dignité humaine et de l’autonomie
individuelle (article 7), de la transparence et du contrôle (article 8),
de l’obligation de rendre des comptes et de la responsabilité (article 9),
de l’égalité et de la non-discrimination (article 10), du respect
de la vie privée et de la protection des données (article 11), de
la fiabilité (article 12) et de l’innovation sûre (article 13).
Le chapitre IV régit les recours et les garanties procédurales (articles 14
et 15). Les recours en cas de violation des droits humains résultant
des activités menées dans le cadre du cycle de vie des systèmes
d’IA doivent être accessibles et effectifs. Des garanties procédurales
effectives doivent être disponibles lorsqu’un système d’IA a un
impact significatif sur la jouissance des droits humains. Le chapitre
V contient une disposition unique et spécifique sur le «cadre de
gestion des risques et des impacts», qui met les Parties dans l’obligation «d’identifier,
d’évaluer, de prévenir et d’atténuer les risques posés par les systèmes
d’intelligence artificielle en tenant compte des impacts réels et
potentiels sur les droits de l’homme, la démocratie et l’État de
droit» (article 16, paragraphe 1). Comme expliqué dans le PRE, le
but de cette disposition est de garantir une approche uniforme de
l’évaluation des risques et de l’impact, tout en laissant aux Parties
une certaine marge de manœuvre dans les mesures choisies, qui, en
tout état de cause, doivent être «graduées et différenciées, le
cas échéant» (article 16, paragraphe 2). Dans ce cadre, l’article 16,
paragraphe 4, dispose que les Parties «évalu[ent] la nécessité d’un
moratoire, d’une interdiction ou d’autres mesures appropriées concernant certaines
utilisations de systèmes d’IA lorsqu’elle[s] considère[nt] que ces
utilisations sont incompatibles avec le respect des droits de l’homme,
le fonctionnement de la démocratie ou l’État de droit.» Selon le
PRE, il incombe à chaque Partie de déterminer ce qui est «incompatible»
dans ce contexte.
20. Le chapitre VI sur la «mise en œuvre de la Convention» contient
des clauses transversales ou interprétatives sur la non-discrimination
(article 17), les droits des personnes handicapées et des enfants (article 18),
la consultation publique (article 19), la maîtrise du numérique
et les compétences numériques (article 20), la sauvegarde des droits
humains reconnus (article 21) et la protection plus étendue (article 22).
21. Le chapitre VII comporte des dispositions concernant «le mécanisme
de suivi et la coopération». L’article 23 porte création d’un mécanisme
de suivi: la Conférence des Parties. Cette conférence sera composée
de représentant·es des Parties. Elle aura le pouvoir d’identifier
les problèmes liés à l’utilisation et à la mise en œuvre de la convention,
de faire des propositions de modification et de formuler un avis
sur toute proposition de modification, d’exprimer des recommandations
spécifiques sur toute question relative à l’interprétation ou à
l’application de la convention, de faciliter l’échange d’informations,
de faciliter le règlement à l’amiable des litiges et de faciliter
la coopération avec les parties prenantes pertinentes (article 23, paragraphe 2,
selon l’interprétation qu’en donne le PRE). La fréquence à laquelle
la Conférence doit être convoquée n’est pas précisée, mais l’article 23,
paragraphe 2, indique que les Parties «se concertent périodiquement»
et l’article 23, paragraphe 4, fait obligation à la Conférence des
parties d’adopter son règlement intérieur «dans un délai de 12 mois
à compter de l’entrée en vigueur» de la convention. Il est intéressant
de noter que l’article 24 instaure une obligation, pour chaque Partie,
d’adresser un rapport à la Conférence des Parties «dans un délai
de deux ans à compter de la date à laquelle elle devient Partie,
puis de manière périodique». Cette obligation faite aux États d’adresser
des rapports s’applique également aux activités que chaque Partie
entreprend pour donner effet à l’obligation énoncée à l’article 3,
paragraphe 1, alinéa b) (répondre aux risques découlant des activités
menées par des acteurs privés). L’article 25 énonce les dispositions
relatives à la coopération internationale entre les Parties (essentiellement
l’échange d’informations). L’article 26 exige des Parties qu’elles
«met[tent] en place ou désigne[nt] un ou plusieurs mécanismes effectifs
de contrôle du respect des obligations nées de la […] Convention»
(«mécanismes de contrôle effectifs»). Les Parties peuvent en effet
créer des mécanismes ou des structures spécialisés ou adapter ou
redéfinir les fonctions de ceux qui existent déjà. Elles ont l’obligation
de faciliter ou de promouvoir la coopération entre les différents
mécanismes désignés et entre ces derniers et les structures nationales existantes
en matière de droits humains (article 26, paragraphes 3 et 4).
22. Le chapitre VIII, «Clauses finales», contient
des clauses analogues à celles figurant dans d’autres conventions
du Conseil de l’Europe. Il est important de noter que conformément
à l’article 34, la seule réserve qu’un État peut formuler à l’égard
de la convention est celle prévue à l’article 33, paragraphe 1 (dite
«clause fédérale»). Aucune autre réserve n’est possible.
4. Critiques émanant de différentes parties
prenantes
23. Lors des phases finales des
négociations sur la CC (mars 2024), plusieurs organisations de la
société civile ont publié une lettre ouverte commune adressée aux
États et à l’Union européenne. Les signataires étaient, entre autres,
des citoyens, des universitaires, des spécialistes des technologies
numériques et des organisations de la société civile qui avaient
observé les négociations, notamment la Conférence des OING du Conseil
de l’Europe (COING)
. Dans cette
lettre, les signataires demandent aux négociateurs «de traiter de
la même façon le secteur public et le secteur privé» et «de rejeter
sans équivoque les exemptions générales en matière de sécurité nationale
et de défense». Ils soulignent qu’en excluant le secteur privé de
son champ d’application, la convention «donne un blanc-seing à ces
entreprises plutôt que de protéger efficacement les droits humains,
la démocratie et l’État de droit». En ce qui concerne l’exemption
générale en matière de sécurité nationale et de défense, les signataires
de la lettre font valoir que «rien ne justifie la renonciation inconditionnelle
aux garanties prévues par le droit international, européen et national
qui s’appliquent habituellement dans ces domaines». Cette lettre
rejoint plusieurs initiatives analogues adressées à la délégation
de l’UE
et à l’administration Biden
. Dans la lettre adressée au secrétaire
d’État Antony Blinken, il est indiqué ce qui suit: «Si le Département
d’État des États-Unis est particulièrement préoccupé par l’alignement
du traité sur le droit national, la solution consiste à prévoir
une dérogation ou une exception aux dispositions qui, selon vous,
peuvent être incompatibles avec le droit américain; elle ne consiste
pas à demander à tous les autres pays concernés de renoncer aux
garanties qu’ils sont prêts à mettre en place».
24. Dans une déclaration publiée le 11 mars 2024 en vue de la
dernière réunion plénière du CAI, le Contrôleur européen de la protection
des données (CEPD) soulève plusieurs points préoccupants. Le CEPD craint
que «le caractère très général des dispositions juridiques du projet
de Convention-cadre et leur nature largement déclarative ne conduisent
inévitablement à des divergences dans l’application de la convention,
ce qui compromettrait la sécurité juridique et, de façon plus générale,
la valeur ajoutée du traité». En ce qui concerne son champ d’application,
rappelant que le Comité des Ministres avait chargé le CAI d’élaborer
un «instrument juridique contraignant à caractère transversal»,
le CEPD souligne que «toute limitation du champ d’application de
la future Convention-cadre aux seules activités entreprises par
les autorités publiques ou par les entités agissant en leur nom
irait à l’encontre du but politique général de la Convention-cadre».
Le CEPD s’inquiète également de «l’absence de “lignes rouges” dans
le projet de Convention-cadre, qui permettraient d’interdire d’emblée
les applications d’IA présentant des niveaux de risque inacceptables».
À cet égard, «les dernières versions du projet de Convention-cadre
et le rapport explicatif n’offrent pas de critères clairs et non ambigus
à respecter ni d’exemples précis des utilisations prohibées»
.
25. Le Réseau européen des institutions nationales des droits
de l’homme (REINDH), qui a participé aux négociations en qualité
d’observateur, a fait la déclaration suivante à l’issue de la dernière
session plénière du CAI, le 14 mars 2024, pour exprimer son inquiétude
:
«le REINDH a pris une part
active à l’ensemble des négociations en qualité d’observateur. Nous
avons demandé à pouvoir participer au processus de négociation et
notre contribution est toujours allée dans le sens d’une convention
intégrant une approche de l’intelligence artificielle fondée sur
les droits humains. Il y a eu des obstacles en cours de route, mais
aussi, nous l’avons constaté, une réelle volonté de trouver des
solutions pour lever ces obstacles, ce qu’il convient de saluer.
Du point de vue des droits
humains, nous nous réjouissons que le projet de convention prévoie
la possibilité de déposer un recours, qu’il soit attentif à la dignité
humaine et à l’autonomie individuelle, et qu’il fasse référence
aux processus de consultation publique. Les libellés des dispositions correspondantes
témoignent d’une détermination à protéger les droits humains, la
démocratie et l’État de droit.
Cela dit, nous sommes convaincus
que la convention ne saurait garantir des normes élevées de protection
des droits humains sans tenir compte de certains aspects:
– Premièrement, la convention
devrait traiter le secteur public et le secteur privé
de la même manière. C’est ce que recommandaient différents instruments
et normes du Conseil de l’Europe, notamment la Recommandation CM/Rec(2020)1
du Comité des ministres aux États membres sur les impacts des systèmes
algorithmiques sur les droits de l’homme et la Recommandation CM/Rec(2022)13
aux États membres sur les effets des technologies numériques sur
la liberté d’expression. Cette exigence va également dans le sens
de l’engagement pris dans la Déclaration de Reykjavik «à assurer
un rôle de premier plan au Conseil de l’Europe dans l’élaboration
de normes à l’ère du numérique pour sauvegarder les droits de l’homme
en ligne et hors ligne». Étant donné que de nombreux systèmes d’IA sont
développés et déployés par des organismes privés, le secteur privé
est un acteur central dans ce domaine, qui pèse lourdement sur la
façon dont l’IA influe sur les droits humains, la démocratie et
l’État de droit. Une convention qui établit une approche différenciée
pour le secteur privé, y compris une réglementation non contraignante,
crée un manque de protection important.
– Deuxièmement, le champ d’application
de la convention devrait également englober les systèmes d’IA utilisés
pour la sécurité nationale,
notamment pour la surveillance renforcée, la collecte de données
et les processus décisionnels visant à éliminer les menaces perçues
contre la sécurité nationale, ces systèmes pouvant présenter des
risques importants pour les droits humains, la démocratie et l’État
de droit. Ces systèmes d’IA peuvent porter atteinte à la liberté
de circulation, de réunion pacifique, d’association et d’expression,
ainsi qu’aux droits à la non-discrimination, à la participation
et au respect de la vie privée, entre autres. L’exclusion de la
sécurité nationale du champ d’application de la convention crée
un manque de protection des droits humains. Conformément à la Convention européenne
des droits de l’homme (CEDH) et au Pacte international relatif aux
droits civils et politiques (PIDCP), la sécurité nationale pourrait
constituer une base légitime pour apporter des restrictions, mais elle
reste soumise aux dispositions de ces conventions.
– Troisièmement, le REINDH
constate avec préoccupation que d’autres éléments essentiels permettant de
garantir une approche de l’IA basée sur les droits humains sont
absents du projet de convention. L’absence de certains éléments,
notamment des critères d’interdiction clairs et non ambigus, met
à mal le principe d’obligation de rendre des comptes et le principe
de transparence, qui sont nécessaires pour garantir une protection
efficace des droits humains. Ces préoccupations sont d’autant plus
fortes que le projet de convention ne prévoit pas de mécanismes
de contrôle suffisamment solides et indépendants au niveau du Conseil
de l’Europe ni au niveau national.
– En outre, l’imprécision
des termes utilisés a pour effet de vider les engagements de leur
substance et soulève des inquiétudes
quant à l’applicabilité et à l’efficacité
des obligations énoncées dans le projet de convention. Citons notamment
l’utilisation récurrente, dans le projet de convention, des expressions «viser
à garantir» ou «autant que faire se peut» et «le cas échéant». De
même, l’emploi fréquent de l’expression «conformément au droit interne»
est en contradiction avec la finalité de la convention, qui est
de garantir des normes juridiques internationales communes.
Le REINDH a, à maintes reprises,
instamment demandé au CAI de remédier à ces problèmes, pour que soit
adoptée une convention du Conseil de l’Europe efficace, qui protège
les droits humains, la démocratie et l’État de droit dans le contexte
de l’IA.
Le REINDH appelle le Comité
des Ministres à assurer une protection efficace des droits humains
dans la convention, et à répondre ainsi à ses préoccupations».
26. Le 15 mars 2024, le Réseau européen des organismes de promotion
de l’égalité (Equinet), qui a également participé aux négociations
en qualité d’observateur, a exprimé publiquement des préoccupations analogues
. Equinet estime qu’il est important
de reconnaître clairement la nécessité d’améliorer certains aspects
de la CC, non seulement pour des besoins de transparence et d’obligation
de rendre des comptes, mais aussi dans l’optique de la mise en œuvre
de la convention, afin de trouver des solutions pour combler les lacunes
mises en évidence.
27. Dans une déclaration publiée le 13 mars 2024, la Commissaire
aux droits de l’homme du Conseil de l’Europe disait espérer que
les négociations débouchent sur «un traité solide, fondé sur les
droits humains, qui s’attaquera efficacement aux effets négatifs
de l’IA sur les personnes et la société et qui rendra l’utilisation
des systèmes d’IA plus prévisible et plus fiable dans le monde entier».
Elle formulait en outre les recommandations suivantes
:
«Compte tenu du rythme et de
la portée des avancées technologiques actuelles, la Convention devrait comprendre
une obligation positive des États de créer un cadre juridique et
réglementaire qui protège efficacement les personnes contre toutes
les violations des droits humains, qu’elles soient commises par
des acteurs publics ou privés. Toute exclusion du champ d’application
de la Convention devrait reposer sur le droit et être nécessaire
et proportionnée dans une société démocratique. Il est également essentiel
que la Convention établisse des critères précis pour identifier
et interdire les risques inacceptables pour les droits humains,
la démocratie et l’État de droit dans l’ensemble des États parties. Enfin,
elle devrait garantir expressément le droit à un recours effectif,
y compris le droit à un examen, par des êtres humains, des décisions
automatisées, conformément à l’article 13 de la Convention européenne
des droits de l’homme.»
28. Jan Kleijssen, membre du conseil consultatif de l’ALLAI (organisation
indépendante chargée de promouvoir une IA responsable) et ancien
directeur Société de l’Information – Action contre la criminalité
au Conseil de l’Europe, a aussi fait publiquement quelques commentaires
après que le CAI a finalisé le PCC
:
«Si beaucoup se sont réjouis de l’accord, de
nombreuses critiques ont également été émises tant sur la procédure
que sur le résultat final […]. Je suis d’accord avec ceux qui sont
mécontents de la manière dont le processus de négociation s’est
déroulé, le modèle multipartite envisagé n’ayant pas été pleinement
respecté. […] Ce n’est un secret pour personne, le projet approuvé
n’est pas à la hauteur des attentes élevées fondées sur le rapport
final du CAHAI, le comité pionnier qui a préparé le terrain en vue
des négociations. Comme beaucoup d’autres, j’ai beaucoup insisté
pour que soit élaboré un instrument solide, notamment en ce qui
concerne le secteur privé, les questions de sécurité nationale et les
évaluations des incidences sur l’environnement. La future Conférence
des Parties peut et doit jouer un rôle déterminant dans la mise
en œuvre et l’évolution de la convention. Des comités conventionnels similaires,
tels que le TPD et le TCY, ont veillé à ce que les conventions respectives
sur la protection des données et la cybercriminalité deviennent
des références mondiales efficaces – avec des États parties sur
tous les continents.»
29. La COING (au nom de son président et de son comité directeur
sur l’IA) a également soumis à l’Assemblée plusieurs recommandations
en vue de l’élaboration du présent avis. Elle soulève trois points
et propose des modifications concrètes. Tout d’abord, elle se déclare
très hostile à l’exemption générale concernant la sécurité nationale.
En effet, la sécurité nationale devrait plutôt être un motif légitime
pour limiter l’application de la Convention-cadre, sur la base de
la légalité, de la nécessité et de la proportionnalité. Étant donné
que la CC ne crée pas de nouveaux droits, mais qu’elle adapte des
droits existants au contexte de l’IA, le fait même qu’elle exclue
de son champ la sécurité nationale ne saurait être justifié. Ensuite,
la santé et l’environnement devraient être réintroduits dans la
liste des principes (chapitre III) ou, sinon, dans la disposition relative
au cadre de gestion des risques et des impacts (article 16). Enfin,
des termes imprécis sont utilisés dans l’ensemble du texte, ce qui
risque de créer une incertitude juridique et de rendre impossible
l’application de la convention. La COING propose donc de remplacer,
dans toutes les dispositions clés, les expressions telles que «viser
à garantir» (seek to ensure)
par «garantir»/«veiller à ce que» (ensure)
(par exemple, à l’article 5, paragraphe 1, et à l’article 15, paragraphe 2).
30. Le 11 avril 2024, j’ai reçu une communication d’Amnesty International
contenant plusieurs recommandations et améliorations à apporter
à la DFC adressées à l’Assemblée (ainsi qu’au Comité des Ministres)
. Il s’agit notamment de tracer des
lignes rouges claires sur les pratiques basées sur l’IA qui sont incompatibles
avec les droits humains, telles que les systèmes utilisés pour la
reconnaissance faciale publique, la police prédictive, etc.; le
rejet des exemptions générales pour la sécurité nationale, la défense
et la recherche et le développement; l’inclusion dans le champ d’application
de tous les acteurs privés et publics; la mise en place d’un cadre
global fondé sur les droits; assurer une transparence et une responsabilisation efficaces
pour les développeurs et les déployeurs d’IA; assurer une diligence
raisonnable efficace en matière de droits de l’homme tout au long
du cycle de vie de l’IA; assurer des recours efficaces pour les
personnes et les communautés touchées; l’établissement d’obligations
claires pour soutenir une participation significative des communautés
touchées, des organisations de la société civile et des experts
des droits de l’homme; et l’établissement d’obligations claires
pour assurer une application cohérente et efficace de la Convention.
5. Évaluation et améliorations possibles
5.1. Aspects positifs du projet de Convention-cadre
31. Tout d’abord, la Convention-cadre
sera le premier traité mondial sur l’intelligence artificielle fondé
sur le respect des droits humains, de la démocratie et de l’État
de droit. Le fait qu’il s’agisse d’une convention ouverte aux États
non-membres ayant participé aux négociations et à d’autres pays
non européens du monde entier qui pourront la rejoindre à un stade
ultérieur revêt une dimension cruciale. Comme je l’ai indiqué en introduction,
les défis et risques que représente l’intelligence artificielle
ont une dimension transnationale et doivent être abordés dans le
cadre d’un instrument de portée mondiale. Aussi, je comprends tout
à fait que le projet de Convention-cadre ait été conçu de manière
à en faciliter la ratification ou l’adhésion par des États ayant
des traditions politiques et juridiques différentes et à offrir
une souplesse et une marge d’appréciation suffisantes pour sa mise
en œuvre. En outre, il convient de reconnaître le fait que le premier
traité international visant à réglementer l’intelligence artificielle
repose sur une approche fondée sur les droits humains et l’acquis du Conseil de l’Europe (droits
de l’homme, démocratie et État de droit) comme une réussite majeure
pour le Conseil de l’Europe, qui témoigne de son leadership international
en matière d’établissement de normes dans les nouveaux secteurs.
Ce constat a déjà pu être observé pour de précédentes conventions
ouvertes du Conseil de l’Europe telles que la Convention de Budapest
(sur la cybercriminalité) et la Convention sur la protection des
données (STCE no°108).
32. Je suis également ravie de constater que la plupart des grands
principes éthiques soulignés par l’Assemblée parlementaire dans
ses rapports publiés en 2020 transparaissent d’une manière ou d’une
autre dans le texte du projet de Convention-cadre: la transparence,
y compris l’accessibilité et l’explicabilité (dans l’article 8);
la justice et l’équité, y compris la non-discrimination (dans les
articles 10, les articles 14 et 15 relatifs aux recours et aux garanties
procédurales et l’article 17); la responsabilité (dans l’article 9
portant sur l’obligation de rendre des comptes et la responsabilité);
la sécurité et la sûreté (dans l’article 12 relatif à la fiabilité)
et la vie privée (dans l’article 11). Je salue en outre l’inclusion
du principe général de dignité humaine et d’autonomie individuelle,
fondement de tous les droits humains
. L’Assemblée
a déjà considéré que certaines technologies telles que les interfaces
cerveau-machine représentent une menace pour les droits humains
et, plus généralement, pour la dignité humaine; elle a souligné
par conséquent qu’il importe d’appliquer à ce propos les principes
de capacité, d’autonomie, d’action humaine et de responsabilité
.
33. Une autre valeur ajoutée significative de cette convention
réside dans le fait qu’elle vise à protéger, lorsqu’il est question
d’intelligence artificielle, non seulement les droits humains mais
aussi les deux autres valeurs essentielles du Conseil de l’Europe
que sont la démocratie et l’État de droit (voir l’article 5, qui transparaît
également dans le titre même de la convention). Les technologies
d’intelligence artificielle sont susceptibles de perturber le fonctionnement
des institutions et processus démocratiques, notamment par leur ingérence
dans les processus électoraux, la désinformation et la manipulation
de l’opinion publique. Elles peuvent également avoir un impact sur
le fonctionnement de l’État de droit, y compris sur l’indépendance
et l’intégrité du pouvoir judiciaire et l’accès à la justice. L’utilisation
de l’intelligence artificielle par les systèmes de police et de
justice pénale soulève ainsi de sérieuses questions au sujet du
principe de la responsabilité humaine de la prise de décisions,
de la justice et de l’équité
.
Si le texte de la Convention n’inclut pas de définition commune
des «institutions et processus démocratiques», le projet de rapport
explicatif fournit en revanche une liste non exhaustive de principes
qui pourraient être menacés par l’intelligence artificielle: la séparation
des pouvoirs, le pluralisme politique, l’indépendance de la justice,
les élections libres et équitables, l’État de droit, etc. À mon
avis, l’interprétation de l’article 5 devrait également reposer
sur les notions interdépendantes de démocratie et d’État de droit
élaborées au fil des ans par les différents organes du Conseil de
l’Europe, en particulier la Cour européenne des droits de l’homme
(les notions de «société démocratique» et de «principe de l’État
de droit» sur lesquels se fonde la CEDH), la Commission de Venise
(la liste des critères de l’État de droit
) ou les Principes de Reykjavik pour
la démocratie adoptés par les chefs d’État et de gouvernement
.
34. D’autres aspects très positifs du projet de Convention-cadre
sont la mention expresse de l’égalité de genre (article 10) et des
femmes (Préambule) à propos de la non-discrimination, l’obligation
de tenir dûment compte des vulnérabilités en rapport avec le respect
des droits des personnes handicapées et des enfants (article 18)
, l’obligation d’examiner les questions
importantes soulevées par les systèmes d’intelligence artificielle
dans le cadre d’un débat public et de consultations multipartites,
«à la lumière des incidences sociales, économiques, juridiques,
éthiques, environnementales et des autres pertinentes» (article 19)
et l’obligation de promouvoir la maîtrise du numérique et les compétences
numériques adéquates (article 20). À cet égard, l’Assemblée a souligné
le fait que l’intelligence artificielle est susceptible d’entraîner
ou d’exacerber la discrimination qui touche certains groupes, dont
les femmes, et que l’accès des femmes aux professions scientifiques
et technologiques devrait être amélioré par souci de respect de
la diversité et de l’égalité
. Elle a également
appelé les États membres à promouvoir la maîtrise du numérique ou
de l’intelligence artificielle en général et dans des contextes
spécifiques
.
35. En ce qui concerne le mécanisme de suivi, je salue l’introduction,
à un stade déjà bien avancé des négociations, de l’obligation pour
la Conférence des Parties d’adopter son propre règlement intérieur
«dans un délai de 12 mois à compter de l’entrée en vigueur de la
présente Convention» (article 23.4). Cela facilitera effectivement
la mise en œuvre de l’obligation de rapport par les premiers États
qui ratifieront la Convention-cadre, tenus de fournir leur premier
rapport dans un délai de deux ans à compter de la date à laquelle
ils deviennent Partie. L’obligation de rapport inscrite à l’article 24
(qui découle du compromis obtenu sur à la portée de l’application
de l’article 3) sera essentielle pour l’interprétation, la mise
en œuvre et le développement de la Convention, notamment à l’égard
du secteur privé. J’aurais préféré voir dans l’article 23.2 une
évocation explicite du pouvoir d’
examen ou
de
suivi de la mise en œuvre
de la Convention par la Conférence des Parties mais, d’après ce
que je comprends, la possibilité d’identifier tout problème entravant l’utilisation
et la mise en œuvre effectives (article 23.2.a) et la faculté de
«formuler des recommandations particulières relatives à l’interprétation
et à l’application de la présente Convention» (article 23.2.c) constituent un
fondement juridique suffisant pour l’examen ou l’évaluation nécessaires
à un système de rapports efficace
.
Le projet de rapport explicatif indique que «[b]ien qu’elles ne
soient pas juridiquement contraignantes, ces recommandations peuvent
être considérées comme l’expression d’une opinion commune des Parties
sur un sujet donné, qui devrait être prise en compte de bonne foi
par les Parties dans leur mise en œuvre de la Convention-cadre».
36. Je trouve également intéressant que la Conférence des Parties
soit chargée de faciliter la coopération avec les «parties prenantes
pertinentes» (article 23.2.f)) et que ces dernières puissent aussi
être associées aux échanges d’information et à la coopération envisagée
entre les Parties «le cas échéant» (article 25.2 et 3). D’après
le projet de rapport explicatif, les «parties prenantes pertinentes»
devraient inclure les organisations non gouvernementales, les acteurs
non étatiques (universitaires, représentants de l’industrie) ainsi
que les autres organismes susceptibles d’améliorer l’efficacité
du mécanisme de suivi. Bien qu’il eût été préférable de prévoir
dans le texte de la Convention ou, tout au moins dans le projet
de rapport explicatif, la possibilité d’inviter les «parties prenantes
pertinentes», y compris d’autres organes du Conseil de l’Europe,
en qualité d’observateurs aux réunions de la Conférence des Parties,
j’ai confiance dans le fait que l’Assemblée aura la possibilité
de prendre part aux échanges d’information et à la coopération envisagés.
5.2. Axes d’amélioration du projet de Convention-cadre
et propositions d’amendements
37. Je partage l’avis du Réseau
européen des institutions nationales des droits de l’homme et des organisations
de la société civile sur le fait que certains termes et qualificatifs
utilisés dans le texte pourraient poser des difficultés susceptibles
d’entraver l’applicabilité et l’application uniforme de la Convention.
Ainsi, l’utilisation de «vise à garantir» ou «cherche à veiller
à ce que» au lieu de «garantit» ou «veille à ce que» (article 5.1
et article 15.2, par exemple), «le cas échéant» (article 16.2.g
et article 19, par exemple), «autant que faire se peut» (article 26.3
et article 26.4), et les fréquentes références à «l’ordre juridique
interne», au «système juridique interne» ou au «droit interne» (articles 6,
14.1, 15.1 et 18) peuvent être perçues comme mettant en cause la
sécurité juridique et la prévisibilité de l’interprétation de la
Convention. Pour ce qui est de l’utilisation d’expressions telles
que «vise à garantir», aucune raison ne justifie par exemple de
traiter différemment l’obligation générale de garantir le respect
des droits de l’homme (article 4) et l’obligation générale de protéger
les institutions et processus démocratiques (article 5). Les deux
obligations devraient être lues à la lumière de l’objet et du but
de la Convention qui sont de «garantir que
les activités menées dans le cadre du cycle de vie des systèmes
d’intelligence artificielle sont pleinement compatibles avec les
droits de l’homme, la démocratie et l’État de droit». En ce qui
concerne les multiples mentions du «droit interne», le projet de
rapport explicatif énonce que «toutes les références au droit interne
dans la présente Convention-cadre doivent être interprétées comme
se limitant aux cas où le droit interne prévoit un niveau de protection des
droits de l’homme plus élevé que le droit international applicable»
(commentaire relatif à l’article 21). Si cette disposition est appliquée
de façon cohérente, alors les obligations internationales (en lien
avec les droits humains) devraient toujours être la norme minimale
applicable à laquelle les dispositions du droit interne ne peuvent
pas déroger (voir également le commentaire relatif à l’article 4).
38. Je regrette que le projet de Convention-cadre utilise le terme
«principes» et non «droits» en référence à des droits établis par
le droit international (Chapitre III). Par exemple, le droit à la
non-discrimination et à l’égalité et le droit à la vie privée devraient
être présentés comme des droits positifs des individus. Cela n’aurait pas
impliqué la création de nouveaux droits humains, les États qui ont
participé aux négociations étant déjà liés aux traités internationaux
qui les reconnaissent en tant que droits des individus. À mon avis,
il aurait été préférable d’intituler le Chapitre III «principes
et droits fondamentaux»
.
Le fait qu’il s’agisse d’une Convention-cadre et non d’une Convention
ne devrait pas faire de différence, car d’autres Conventions-cadres renvoient
aux «droits» individuels dans les dispositions définissant les principes
et obligations auxquels sont tenus les États Parties (voir la Convention-cadre
pour la protection des minorités nationales). De manière plus générale,
je pense que les rédacteurs ont manqué l’occasion d’inclure de nouveaux
droits qui pourraient découler de droits déjà existants (les droits
à la dignité humaine, à l’autonomie personnelle, au respect de la vie
privée), adaptés au cadre de l’intelligence artificielle ou spécifiquement
définis au regard de ce cadre. Lors de l’examen des technologies
basées sur les interfaces cerveau-machine, l’Assemblée a ainsi appelé
les États membres à envisager la création de nouveaux «neurodroits»,
tels que la liberté cognitive, la vie privée mentale, ou l’intégrité
mentale
. Le projet de rapport explicatif
aurait également pu prévoir des dispositions spécifiques visant
à optimiser les effets positifs de l’intelligence artificielle sur
les processus démocratiques, par exemple, pour renforcer l’obligation
des pouvoirs publics de rendre des comptes et faciliter l’action
et la participation démocratiques
. Bien que le
texte évoque les «avantages» (Préambule) ou l’«effet positif» de l’intelligence
artificielle (article 25.2 consacré à l’échange d’information),
aucune obligation spécifique de mise à profit du potentiel de l’intelligence
artificielle pour améliorer les processus démocratiques et la jouissance
des droits humains n’est prévue.
39. Enfin, j’ai tendance à partager l’avis de la plupart des voix
critiques susmentionnées qui se sont élevées à propos du champ d’application
de la Convention-cadre (article 3), le point le plus controversé
du projet convenu. J’ai présenté mes propres commentaires par écrit
sur cette question tout au long du processus. J’ai notamment souligné
le fait que l’Assemblée soutient par principe le champ d’application
le plus large possible et rappelé qu’elle avait estimé dans ses
rapports sur l’intelligence artificielle que les principes d’autoréglementation
énoncés par les acteurs privés n’étaient pas suffisants. Un instrument
juridiquement contraignant devrait reposer sur une approche exhaustive
et s’adresser à
toutes les parties prenantes,
y compris aux acteurs privés. C’est pourquoi j’étais pleinement
favorable à l’Option A de la version publiée en décembre 2023, qui
n’excluait pas les acteurs privés de ce champ d’application, conformément
aux résolutions précédentes de l’APCE et à la position du CAHAI
. Cependant, étant donné
que certains États participant aux négociations n’étaient pas prêts
à accepter un champ d’application horizontal couvrant à la fois
le secteur public et le secteur privé, différentes options (B et
C) qui présentaient une approche différenciée pour le secteur privé
(prévoyant l’obligation pour toutes les Parties d’adopter des mesures
appropriées pour appliquer la Convention ou faire face progressivement
aux risques en lien avec des entités privées) ont également été proposées.
Dans la version envoyée en amont de la dernière réunion plénière,
de nouvelles options qui prévoyaient des clauses d’exclusion pour
les États désireux d’exclure les entités privées ont été ajoutées.
Dans l’une des propositions, l’option d’exclusion était soumise
à des conditions strictes et assortie d’une obligation de prendre
les mesures appropriées pour faire face aux risques et impacts découlant
des acteurs privés. Bien que l’option A ait eu ma préférence, une
clause d’exclusion en ces termes aurait constitué une autre option acceptable,
qui offrait la souplesse nécessaire à certains États (une minorité
d’entre eux) pour exclure les acteurs privés par le biais d’une
déclaration, tout en conservant la pleine applicabilité par défaut
de la Convention aux acteurs privés.
40. La version actuelle (présentée aux tous derniers stades des
négociations au sein du groupe de rédaction sans qu’elle ait donné
lieu à des discussions approfondies en réunion plénière) est un
système dans une certaine mesure «à la carte» qui permet à chaque
Partie de spécifier dans une déclaration la manière dont elle entend
faire face aux risques et aux impacts découlant de l’utilisation
de l’intelligence artificielle par des acteurs privés. Cette solution
est loin d’être idéale pour garantir la sécurité juridique et la
prévisibilité des obligations imposées par la Convention aux acteurs
privés. Je suis bien évidemment consciente des contraintes inhérentes
aux derniers stades des négociations et de l’énorme pression pour
dégager un compromis. Je pense que les contraintes de temps n’ont
pas nécessairement joué en faveur de la qualité du résultat final obtenu.
Le processus suivi n’a pas permis de mener une analyse et une consultation
approfondies et en temps opportun de toutes les parties prenantes,
y compris la société civile et les autres observateurs qui participent au
Comité sur l’intelligence artificielle. Cette méthode semble être
en contradiction avec les pratiques précédentes du Conseil de l’Europe
en matière de rédaction de conventions.
41. Même si d’autres options et une consultation plus approfondie
sur le champ d’application public/privé auraient été préférables
à mes yeux, je ne proposerai pas de modification particulière à
ce stade. Je comprends que, compte tenu des difficultés à parvenir
à un accord final, il serait assez irréaliste d’espérer une réouverture
des négociations mobilisant l’ensemble des parties sur ce point.
Ceci étant dit, j’aimerais souligner que l’obligation de rapports
établie dans le cadre du compromis sur l’article 24 doit être considérée
comme un garde-fou positif et une compensation des champs d’application
différenciés entre secteur public et secteur privé. En outre, j’espère
que tous les États membres du Conseil de l’Europe qui ratifieront
la Convention-cadre opteront pour la pleine application des Chapitres II
à VI lorsqu’ils soumettront leur déclaration respective relative
aux acteurs privés au titre de l’article 3. L’Assemblée devrait
leur demander instamment d’aller dans ce sens, pour se conformer
pleinement à la mission confiée par le Comité des Ministres d’élaborer
une convention ayant une dimension transversale, aux travaux précédents
du CAHAI, ainsi que, de façon plus générale, aux normes du Conseil
de l’Europe, et notamment à la Recommandation CM/Rec(2016)3 du Comité des
Ministres aux États membres «Droits de l’homme et entreprises» et
à la jurisprudence de la Cour européenne des droits de l’homme relative
aux obligations positives des États vis-à-vis des acteurs privés.
La Conférence des Parties devrait également jouer son rôle et mener
une évaluation appropriée de la manière dont les États membres se
conforment à l’article 3.1.b, y compris les États qui décident de
prendre «d’autres mesures appropriées» plutôt que d’appliquer la
Convention aux activités du secteur privé. Je suis confiante dans
le fait qu’une interprétation progressive de cette disposition par
le mécanisme de suivi favorisera les avancées sur cette question
au fil du temps, grâce aux exigences en matière de rapports et à
la pression des pairs.
42. Je vais maintenant exposer une liste des améliorations et
amendements possibles au projet de Convention-cadre. Ces propositions
se limitent aux questions que je juge suffisamment importantes pour
être inclues dans l’avis de l’Assemblée et qui me semblent raisonnables
eu égard à la structure, à la nature et à l’objet général du projet
de Convention-cadre.
1. Remplacer l’article 3.2 par
le texte suivant:
«Chaque
Partie peut restreindre l’application des dispositions de la présente
Convention si les activités menées dans le cadre du cycle de vie
des systèmes d’intelligence artificielle sont nécessaires à la protection
de ses intérêts en matière de sécurité nationale ou de défense nationale
et si ces activités sont menées de manière compatible avec le droit
international applicable, y compris les obligations nées du droit
international des droits de l’homme, et dans le respect de ses institutions
et processus démocratiques.»
2. Supprimer l’article 3.4.
Alors que j’aurais été prête à accepter un compromis sur la
question des entités publiques/privées qui prévoie une clause d’exclusion
sous conditions, je ne peux en revanche pas accepter que la sécurité
nationale soit totalement exclue du champ d’application de la Convention.
Le Conseil de l’Europe ne dispose pas de compétences limitées dans
le domaine de la sécurité nationale . Au contraire, les mesures prises par
les autorités publiques pour assurer la protection de la sécurité
nationale doivent être conformes à l’État de droit et à la Convention
européenne des droits de l’homme. Si les autorités invoquent des
raisons de sécurité nationale pour justifier l’utilisation d’outils
d’intelligence artificielle, toute atteinte aux droits humains résultant de
cette utilisation doit être conforme au droit, poursuivre un but
légitime (la sécurité nationale, par exemple) et constituer une
mesure nécessaire et proportionnée dans une société démocratique.
Le Protocole d’amendement à la Convention pour la protection des
personnes à l’égard du traitement automatisé des données à caractère
personnel (STCE no 223, Convention 108+) s’applique également au
traitement des données à des fins de sécurité nationale, bien qu’un
certain nombre d’exceptions et de restrictions soient prévues. Pour
les États non-membres, le Pacte international relatif aux droits
civils et politiques autorise lui aussi des restrictions pour des
raisons de sécurité nationale. Une exemption globale me semble par conséquent
complètement injustifiée et contraire aux obligations existantes
en matière de droits humains . Le
fait que l’article 3.2 mentionne les obligations nées du droit international
des droits humains en dehors de la Convention-cadre ou au respect
des institutions démocratiques ne modifie en rien la nature de l’exemption, laquelle
n’est d’ailleurs soumise à aucune obligation de rapports au titre
de l’article 24 (contrairement à l’exemption en lien avec le secteur
privé).
Les mêmes considérations valent pour l’exclusion globale de
la défense nationale du champ d’application de la Convention (article 3.4).
Si le Statut du Conseil de l’Europe prévoit que les questions relatives
à la défense nationale ne sont pas de sa compétence, les atteintes
aux droits humains causées par les activités militaires ne sortent
pas du champ d’application des traités relatifs aux droits humains,
notamment de la CEDH . L’Assemblée
a de fait adopté un rapport sur l’utilisation de l’intelligence
artificielle dans le domaine de la défense et de la force létale . L’utilisation de l’IA dans les conflits
armés en cours soulève de graves questions au regard du droit international
humanitaire et des droits de l’homme . Si la Convention-cadre
s’applique principalement aux entités publiques, les exemptions
relatives à l’utilisation de l’intelligence artificielle à des fins
de sécurité et de défense nationales risquent d’en rétrécir encore
davantage le champ d’application et de remettre en question la nature
transversale de ce traité.
Je propose par conséquent de traiter la sécurité nationale
et la défense nationale de la même manière et dans un seul article . La disposition proposée
se fonderait en partie sur l’Option C de la version du projet de Convention-cadre
de décembre 2023, en y ajoutant «défense nationale» et «dans le
respect de ses institutions et processus démocratiques» et en supprimant
le qualificatif «essentiels» associé à l’expression «intérêts de sécurité
nationale». En outre, le rapport explicatif pourrait ajouter des
éclaircissements sur les critères établis par le droit international
des droits humains pour les restrictions imposées pour des raisons
de sécurité nationale (légalité, nécessité, proportionnalité).
3. Dans l’article 5.1, ajouter:
«aux
élections libres et équitables» après «des institutions et processus
démocratiques, y compris».
Il est important de citer expressément les «élections libres
et équitables» parmi les principaux institutions et processus démocratiques
susceptibles d’être menacés par l’intelligence artificielle. Elles
sont déjà mentionnées dans le rapport explicatif ainsi que dans
les Principes de Reykjavik pour la démocratie. La Cour a également
reconnu que les droits garantis par l’article 3 du Protocole no 1
à la CEDH (droit à des élections libres) «sont cruciaux pour l’établissement
et le maintien des fondements d’une véritable démocratie régie par la
prééminence du droit» .
4. Insérer un nouvel article
dans le Chapitre III:
«Chaque
Partie adopte ou maintient des mesures pour préserver la santé et
l’environnement dans le cadre des activités menées au cours du cycle
de vie des systèmes d’intelligence artificielle, conformément au
droit international et interne applicable.»
Les versions précédentes du projet de Convention-cadre (de
janvier et décembre 2023) incluaient une disposition spécifique
relative à la préservation de la santé et de l’environnement. Bien
que la version actuelle contienne quelques mentions de la santé
et de l’environnement dans le Préambule (12) et des incidences environnementales
à l’article 19 (consultation publique), une disposition spécifique
sur la santé et l’environnement devrait en effet figurer expressément
comme l’un des principes généraux énoncés au Chapitre III. Ce principe
pourrait s’accompagner d’une mention du «droit interne et international
applicable». L’Assemblée avait déjà recommandé en 2020 qu’une convention
sur l’intelligence artificielle mette l’accent sur les incidences
de l’intelligence artificielle sur le droit à la santé, en ayant
à l’esprit le développement d’applications de santé et de dispositifs
médicaux reposant sur l’intelligence artificielle .
Conformément au principe de responsabilité humaine, il était également
souligné que les applications de santé reposant sur l’intelligence
artificielle ne devraient pas remplacer complètement le jugement
humain et que les décisions prises avec l’intelligence artificielle
dans le cadre des soins de santé devraient toujours être validées
par des professionnels de santé (ce que certains ont appelé le droit
à un médecin humain). Le droit à la santé est déjà garanti par la
Charte sociale européenne, le Pacte international relatif aux droits
économiques, sociaux et culturels, la Charte des droits fondamentaux
de l’Union européenne, et est indirectement protégé par la jurisprudence
de la Cour européenne des droits de l’homme (au titre des articles 2,
3 et 8 de la CEDH) .
En ce qui concerne la protection de l’environnement, les industries
et technologies d’intelligence artificielle ont en réalité un impact
considérable sur les ressources naturelles et l’énergie. Bien qu’il
ne soit pas encore pleinement reconnu comme un droit humain autonome
au sein du Conseil de l’Europe, les chefs d’État et de gouvernement
réunis à Reykjavik en 2023 ont noté la reconnaissance accrue du
droit à un environnement propre, sain et durable dans les instruments
régionaux et internationaux des droits humains, ainsi que dans les
constitutions, législations et politiques nationales, et ont décidé
de renforcer le travail du Conseil de l’Europe dans ce domaine (le
«processus de Reykjavik») . La Cour européenne des droits de
l’homme a récemment déduit de l’article 8 de la Convention l’existence
d’un droit pour les individus de bénéficier de la protection effective,
par les autorités de l’État, contre les effets néfastes graves du
changement climatique sur leur vie, leur santé, leur bien-être et
leur qualité de vie .
Elle avait déjà reconnu que cette disposition s’étende aux effets
négatifs liés aux dommages ou risques de dommages environnementaux
d’origines diverses. Les États membres enverraient un mauvais message
s’ils omettaient toute mention de l’environnement (en tant que principe
général) dans le premier traité international négocié après Reykjavik.
La mention du «droit international et interne applicable» permettrait
une reconnaissance progressive de ce principe/droit conforme aux
évolutions normatives au niveau international et au sein du Conseil
de l’Europe, qui traduit l’évolution de la volonté politique des
États.
5. Ajouter dans le texte de l’article 14.3.c
ou dans le rapport explicatif une mention:
des «autorités judiciaires»
ou du «contrôle juridictionnel».
Le projet de rapport explicatif précise que les plaintes peuvent
être déposées auprès du(des) mécanisme(s) de contrôle visé(s) à
l’article 25. Une mention des «autorités judiciaires» ou du «contrôle
juridictionnel» aurait également du sens, étant entendu qu’elle
ne s’appliquerait que dans la mesure requise par les obligations
de droit interne et international auxquelles est tenue chaque Partie
(dans la logique du paragraphe 1 de l’article 14). S’il est vrai
que l’article 13 de la CEDH n’exige pas en soi que l’instance nationale
soit strictement une «autorité judiciaire», l’article 6 (qui prévoit
le droit à un tribunal indépendant et impartial) et la jurisprudence établie
par la Cour au titre de différents articles de la Convention peut
imposer dans certaines situations et circonstances le droit à l’accès
à un tribunal ou à un contrôle juridictionnel effectif. L’Assemblée
a également recommandé, dans le cadre des systèmes de police et
de justice pénale, que la mise en place, l’exploitation et l’utilisation
des applications d’IA puissent faire l’objet d’un contrôle juridictionnel
effectif .
6. Dans l’article 15.1, ajouter
une référence au:
«contrôle humain»
Le Projet de rapport explicatif indique que des garanties
procédurales effectives dans le cadre de cette disposition devraient,
par exemple, inclure un contrôle humain, y compris un examen ex ante ou ex
post de la décision par des êtres humains. Une mention
du «contrôle humain» ou d’une «supervision humaine» apparaissait
dans les versions publiques précédentes du texte de la Convention
(de janvier et décembre 2023). En outre, l’Assemblée a toujours
souligné l’importance du principe de responsabilité humaine pour
les décisions dans ses rapports en lien avec l’intelligence artificielle,
y compris dans le cadre des systèmes de police et de justice pénale,
des soins de santé, du travail, des neurotechnologies et des systèmes d’armes
létales autonomes (SALA). Le CAHAI a également estimé que le futur
traité sur l’intelligence artificielle devait comprendre le nécessaire
droit à un contrôle humain des décisions prises ou guidées par un
système d’intelligence artificielle dans le secteur public, sauf
si des motifs concurrents et légitimes impérieux l’excluent .
La mention du «contrôle humain» est d’autant plus importante que
l’article 15 s’applique uniquement «lorsqu’un système d’intelligence
artificielle a un impact significatif sur
la jouissance des droits de l’homme». Ce choix ne signifie toutefois
pas que le contrôle humain n’est plus nécessaire lorsqu’un système d’intelligence
artificielle ne produit que des effets sur les droits et intérêts
individuels (sans pour autant atteindre le seuil correspondant à
un impact significatif sur les droits humains).
7. Ajouter dans les articles 16.1,
16.2.a, 16.2.e et 16.3:
«et la préservation de l’environnement»
après «l’État de droit».
Le Préambule du projet de Convention-cadre souligne que la
Convention vise à encourager la prise en compte «des risques et
des impacts plus larges liés à ces technologies, y compris, mais
sans s’y limiter, la santé humaine et l’environnement, et les aspects
socio-économiques y compris l’emploi et le travail». Dans son commentaire
sur l’article 16, le projet de rapport explicatif souligne également
que les évaluations des risques et des impacts «peuvent, le cas
échéant, tenir dûment compte de la nécessité de préserver un environnement sain
et durable». Par souci de cohérence, cet élément devrait également
être mentionné dans le texte de l’article 16, notamment si la proposition
d’inclure une disposition distincte sur la santé et l’environnement
dans le Chapitre III (voir no 4 ci-dessus) n’est pas retenue. La
durabilité environnementale devrait être l’un des critères examinés
dans le cadre de l’évaluation des risques et des impacts des systèmes
d’intelligence artificielle.
8. Remplacer l’article 16.4 par
le texte suivant:
«Chaque
Partie prend les mesures législatives ou autres qui se révèlent
nécessaires pour mettre en place des mécanismes de moratoire ou
d’interdiction ou des restrictions concernant certaines utilisations
des systèmes d’intelligence artificielle lorsque ces utilisations
sont considérées comme incompatibles avec le respect des droits
de l’homme, le fonctionnement de la démocratie ou l’État de droit.»
Je comprends la déception exprimée par certaines organisations
de la société civile et d’autres parties prenantes concernant l’absence
de «lignes rouges» dans l’article 16 interdisant certaines applications d’intelligence
artificielle qui présenteraient des niveaux de risque inacceptables . Le projet de rapport explicatif
ne fournit d’ailleurs pas de critères objectifs ni d’exemples spécifiques
d’utilisations interdites. J’espère que cette lacune sera comblée
à l’avenir par d’autres instruments juridiquement contraignants
ou non contraignants préparés par le Comité sur l’intelligence artificielle .
La Conférence des Parties pourrait également contribuer à l’interprétation
de cette disposition en fournissant des exemples d’utilisations
interdites. Les mécanismes de contrôle nationaux prévus à l’article 26
pourraient aussi proposer des listes d’utilisations de l’intelligence
artificielle interdites ou à haut risque ou être consultés pour
l’élaboration de telles listes.
En tout état de cause, la version actuelle de l’article 16.4
ne me semble pas satisfaisante car elle laisse trop de latitude
aux Parties à la Convention. Elle crée uniquement une obligation
d’«évalue[r] la nécessité» d’un moratoire, d’une interdiction ou
d’autres mesures et laisse à chaque Partie le soin de déterminer
les utilisations qu’elle considère comme «incompatibles». Je proposerais
par conséquent d’adopter une formulation plus percutante et plus
claire (similaire à celle proposée dans les versions précédentes
du projet): une obligation de «prendre les mesures législatives
ou autres» afin de mettre en place «un moratoire, une interdiction
ou des restrictions» lorsque ces utilisations «sont jugées incompatibles»
avec les droits humains. Cela implique que les pratiques jugées
incompatibles avec les droits humains, la démocratie et l’État de
droit par les autorités nationales ou la Conférence des Parties,
y compris sur la base d’autres instruments juridiques applicables, devraient
être interdites, faire l’objet d’un moratoire ou être restreintes
de façon appropriée.
9. Insérer un nouvel article
dans le Chapitre VI:
«Chaque
Partie prend les mesures appropriées pour assurer la protection
des lanceurs d’alerte pour les activités menées dans le cadre du
cycle de vie des systèmes d’intelligence artificielle qui pourraient
avoir un effet préjudiciable sur les droits de l’homme, la démocratie
et l’État de droit.»
Cette disposition était incluse dans les versions précédentes
du projet de Convention-cadre. Aujourd’hui, il n’est plus fait mention
des lanceurs d’alerte qu’une seule fois dans le commentaire sur
l’article 8 (transparence et supervision) du projet de rapport explicatif.
L’Assemblée s’est imposée comme une pionnière dans la protection
des lanceurs d’alerte et défendrait résolument l’inclusion
d’une disposition spécifique sur cette question dans la Convention.
Les lanceurs d’alerte pourraient en effet signaler tout acte répréhensible
ou violation du droit par les acteurs publics et privés du domaine
de l’intelligence artificielle et contribuer ainsi à l’application
des principes généraux de transparence, d’obligation de rendre des
comptes et de responsabilité, de fiabilité et d’innovation sûre.
En outre, le CAHAI recommandait lui aussi en 2021 l’inclusion d’une
disposition spécifique sur la protection des lanceurs d’alerte dans
le futur instrument transversal juridiquement contraignant.
10. Ajouter la phrase suivante
à la fin de l’article 26.2:
«Les
fonctions et les pouvoirs de ces mécanismes devraient comprendre
des pouvoirs d’enquête, le pouvoir de donner suite aux plaintes,
l’établissement de rapports périodiques, la promotion, la sensibilisation
du public et la consultation sur la mise en œuvre effective de la
présente Convention.»
L’Assemblée estime que les mécanismes de contrôle indépendants
et proactifs devraient disposer des pouvoirs nécessaires pour contrôler
le respect de la Convention, et notamment de l’expertise technique
et juridique requises pour être capables de suivre les nouvelles
évolutions de l’intelligence artificielle et d’évaluer ses risques . Ils devraient être
en mesure de traiter les plaintes visées à l’article 14.2.c. Ils
devraient également préparer des rapports périodiques qui pourraient
être utilisés pour satisfaire à l’obligation de rapport à la Conférence
des Parties prévue à l’article 24. Ces mécanismes devraient en outre
être consultés sur toute proposition de loi ou d’autre mesure liée
à la mise en œuvre de la Convention, par exemple sur tout projet d’adoption
d’une interdiction ou d’un moratoire au titre de l’article 16.4.
Si plusieurs mécanismes sont établis, ces fonctions pourraient être
partagées entre ces mécanismes. Si cette proposition n’est pas retenue
pour le texte de la Convention, il conviendrait de modifier tout
au moins le projet de rapport explicatif afin de fournir des orientations
plus détaillées quant au type de compétences prévues pour les mécanismes
de contrôle nationaux.
11. Insérer un nouvel article
dans le Chapitre VII, après l’article 26, intitulé «Participation
parlementaire»:
«1.
Les parlements nationaux sont invités à participer au suivi et à
l’examen des mesures prises pour la mise en œuvre de la présente
Convention.
2. L’Assemblée parlementaire
du Conseil de l’Europe est invitée à faire le bilan, de manière
régulière, de la mise en œuvre de la présente Convention.»
Étant donné que la Convention-cadre met spécifiquement l’accent
sur les impacts de l’IA sur le fonctionnement de la démocratie,
un rôle plus visible des parlements nationaux dans le suivi de la
mise en œuvre des mesures prises pour appliquer la Convention serait
pleinement justifié. L’Assemblée a déjà évoqué la nécessite de veiller
à ce que «l’utilisation par les autorités publiques de technologies
fondées sur l’IA soit soumise à un contrôle parlementaire et à un
examen public adéquats» .
L’APCE pourrait également être invitée à suivre régulièrement la
mise en œuvre de la Convention par les États membres, compte tenu
de l’importance du débat parlementaire sur l’impact de l’IA sur
la démocratie, les droits de l’homme et l’État de droit, ainsi que
du rôle et de l’engagement permanent de l’Assemblée sur ce sujet.
La nouvelle disposition proposée au chapitre VII s’inspire d’une
disposition de la Convention d’Istanbul sur la prévention et la
lutte contre la violence à l’égard des femmes et la violence domestique
(article 70).
6. Conclusions
43. Le projet de Convention-cadre
sur l’intelligence artificielle, les droits de l’homme, la démocratie
et l’État de droit devrait être considéré comme une réalisation
importante du Comité sur l’intelligence artificielle et du Conseil
de l’Europe. Lorsqu’il aura été adopté par le Comité des Ministres,
il deviendra le premier traité international sur l’intelligence
artificielle. Le projet se fonde sur les normes du Conseil de l’Europe
en matière de droits humains, de démocratie et d’État de droit,
des normes communes aux États non européens qui ont participé aux
négociations et qui signeront et ratifieront, nous l’espérons, la
Convention-carde. La valeur ajoutée de cette convention résidera
dans sa dimension mondiale, qui permettra de réunir des États des
cinq continents qui souhaitent relever les défis mondiaux posés
par l’intelligence artificielle dans le respect de ces valeurs et
dans l’objectif d’en atténuer ou d’en limiter les risques. Différents
systèmes et traditions juridiques et politiques ont par conséquent
dû être pris en considération dans le cadre du processus de négociations
et de rédaction. Il en résulte un projet de texte dont les dispositions
souvent très génériques et abstraites devront faire l’objet d’éclaircissements
et être développées à travers ses mécanismes d’interprétation et
de suivi. J’espère également que la Convention-cadre sera complétée
d’autres instruments juridiquement contraignants ou non contraignants
portant sur l’utilisation de l’intelligence artificielle dans des
secteurs spécifiques (par exemple, en lien avec le droit du travail
et les droits sociaux, les droits culturels, ou des secteurs précis
de l’administration publique, tels que les services répressifs,
la justice, les soins de santé, les services de migration et l’administration
électorale) et la méthodologie de gestion des risques et de l’impact.
44. L’aspect le plus problématique du projet de Convention-cadre
réside dans son champ d’application restreint, qui prévoit un système
«à la carte» pour les acteurs privés, ainsi que des exemptions complètes
pour les activités réalisées à des fins de défense et de sécurité
nationales. Le compromis final dégagé sur les secteurs public/privé
ne devrait pas être utilisé par les États membres du Conseil de
l’Europe pour moduler ou diluer l’application de la Convention aux
acteurs privés opérant dans leur juridiction. L’Assemblée devrait appeler
instamment tous les États membres à appliquer pleinement les dispositions
de la Convention aux acteurs privés lorsqu’ils soumettront leur
déclaration en vertu de l’article 3.1, conformément au mandat confié par
le Comité des Ministres, à la position de l’Assemblée et de l’ancienne
Commissaire aux droits de l’homme du Conseil de l’Europe, ainsi
qu’aux exigences nées de la CEDH. La Conférence des Parties à la
Convention-cadre devrait également être invitée à utiliser pleinement
ses pouvoirs et le système de rapports pour évaluer la manière dont
les Parties mettent en œuvre la Convention à l’égard des acteurs
privés et fournir des éléments d’orientation sur son interprétation
et son application effective.
45. Les commentaires critiques et propositions soulevés par les
différentes parties prenantes méritent d’être pris en considération
sérieusement. Je me suis appuyée sur certaines de ces propositions
ou sur mes propositions de rédaction précédemment soumises au Comité
sur l’intelligence artificielle pour formuler les propositions d’améliorations
et de modifications du PCC. Toutes ces amendements visent à renforcer
le projet en tenant dûment compte de la structure générale du texte
convenu et de la logique qui le fonde. Certaines sont en lien avec
les exemptions prévues pour la sécurité et la défense nationales
(1, 2). D’autres visent à ajouter des mentions expresses ou à préciser
le contenu de certaines dispositions au sujet des élections libres et
équitables (3), de la santé et de l’environnement (4, 6), du contrôle
juridictionnel (5), du contrôle humain (6), de l’interdiction de
certaines utilisations de l’intelligence artificielle (8), des lanceurs
d’alerte (9), des mécanismes de contrôle nationaux (10) et de la
participation parlementaire (11). Toutes ces modifications transparaissent
dans le projet d’Avis qui précède l’exposé des motifs.