Imprimer
Autres documents liés

Rapport | Doc. 15971 | 16 avril 2024

Projet de Convention-cadre sur l'intelligence artificielle, les droits de l'homme, la démocratie et l'État de droit

Commission des questions juridiques et des droits de l'homme

Rapporteure : Mme Thórhildur Sunna ÆVARSDÓTTIR, Islande, SOC

Origine - Renvoi en commission: Décision du Bureau, Renvoi 4806 du 15 avril 2024. 2024 - Deuxième partie de session

Résumé

La commission des questions juridiques et des droits de l'homme se félicite de la finalisation du projet de Convention-cadre sur l'intelligence artificielle, les droits de l'homme, la démocratie et l’État de droit par le Comité sur l'intelligence artificielle (CAI). Elle est fermement convaincue qu'une réglementation juridique est nécessaire pour éviter ou atténuer les risques potentiels pour la démocratie, les droits de l'homme et l'État de droit découlant de l'utilisation de l'intelligence artificielle (IA).

Une fois adoptée, la Convention-cadre deviendra le premier traité international sur l'IA. Sa valeur ajoutée résidera en partie dans sa portée mondiale. La commission salue le fait que la plupart des principes éthiques clés approuvés par l'Assemblée soient reflétés dans différentes dispositions du projet. Elle regrette toutefois que le projet ne couvre pas de manière égale les acteurs publics et privés. L'Assemblée devrait demander instamment à tous les États membres, lorsqu'ils ratifieront la Convention-cadre, de reconnaître la pleine applicabilité de ses principes et obligations aux activités des acteurs privés. L'obligation de faire rapport, la pression des pairs et une interprétation dynamique par la future Conférence des parties devraient favoriser les progrès au fil du temps.

Après avoir examiné les critiques et les propositions formulées par les différentes parties prenantes, la commission propose quelques améliorations au projet de Convention-cadre.

A. Projet d’avis 
			(1) 
			Projet d’avis adopté
à l’unanimité par la commission le 16 avril 2024.

(open)
1. L’Assemblée parlementaire considère que l’intelligence artificielle (IA) est porteuse à la fois d’opportunités et de défis. L’Assemblée a toujours souligné, en prenant position dans ce domaine, l’importance de trouver un juste équilibre entre l’atténuation des risques et la pleine utilisation des avantages que l’IA peut offrir pour promouvoir une vie meilleure pour tous.
2. L’Assemblée rappelle ses travaux antérieurs sur l’IA. En 2020, elle a adopté une série de résolutions et de recommandations examinant les opportunités et les risques de l’IA pour la démocratie, les droits de l’homme et l’État de droit. Il s’agit notamment des Résolutions 2341 (2020) «La nécessité d’une gouvernance démocratique de l’intelligence artificielle», 2342 (2020) «Justice par algorithme – Le rôle de l’intelligence artificielle dans les systèmes de police et de justice pénale», 2343 (2020) «Prévenir les discriminations résultant de l’utilisation de l’intelligence artificielle», 2344 (2020) «Les interfaces cerveau-machine: nouveaux droits ou nouveaux dangers pour les libertés fondamentales?», 2345 (2020) «Intelligence artificielle et marchés du travail: amis ou ennemis?», 2346 (2020) «Aspects juridiques concernant les ‘véhicules autonomes’», ses recommandations connexes ainsi que la Recommandation 2185 (2020) «Intelligence artificielle et santé: défis médicaux, juridiques et éthiques à venir». L’Assemblée a approuvé un ensemble de principes éthiques clés qui devraient être respectés lors du développement et de la mise en œuvre d’applications d’IA. Ces principes, qui ont été précisés dans une annexe commune à tous les rapports, sont les suivants:
2.1. la transparence, y compris l’accessibilité et l’explicabilité;
2.2. la justice et l’équité, y compris la non-discrimination;
2.3. la responsabilité humaine des décisions, y compris la responsabilité juridique et l’existence de voies de recours;
2.4. la sûreté et la sécurité;
2.5. le respect de la vie privée et la protection des données.
3. L’Assemblée est fermement convaincue qu’une réglementation juridique est nécessaire pour éviter ou atténuer les risques potentiels pour la démocratie, les droits de l’homme et l’État de droit découlant de l’utilisation de l’IA. Dans ce contexte, le Conseil de l’Europe, en tant qu’organisation normative internationale de premier plan dans le domaine de la démocratie, des droits de l’homme et de l’État du droit, devrait jouer un rôle pionnier. Tout en soutenant les travaux du Comité ad hoc du Conseil de l’Europe sur l’intelligence artificielle (CAHAI) à l’époque, l’Assemblée a appelé le Comité des Ministres à décider de l’élaboration d’un instrument juridiquement contraignant régissant l’intelligence artificielle, éventuellement sous la forme d’une convention ouverte également aux États non membres, qui devrait être fondée sur une approche globale, traiter de l’ensemble des cycles de vie des systèmes basés sur l’IA, s’adresser à toutes les parties prenantes et inclure des mécanismes pour assurer sa mise en œuvre. L’Assemblée se félicite donc vivement de la finalisation du projet de Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit par le Comité sur l’intelligence artificielle du Conseil de l’Europe (CAI).
4. L’Assemblée a toujours considéré que les acteurs privés devraient relever du champ d’application d’un tel instrument juridiquement contraignant. Dans sa Résolution 2341 (2020), elle a estimé que cet instrument devrait contenir des dispositions visant à limiter les risques d’utilisation des technologies fondées sur l’IA par les États et les acteurs privés pour exercer un contrôle sur les personnes, et que l’activité des acteurs privés devrait faire l’objet d’un contrôle démocratique.
5. La Convention-cadre, une fois adoptée, deviendra le tout premier traité international sur l’IA. Elle se fonde sur les normes du Conseil de l’Europe en matière de droits humains, de démocratie et d’État de droit, qui sont également partagées par les États non membres ayant participé aux négociations. Il s’agit d’un exemple du leadership du Conseil de l’Europe dans l’élaboration de normes dans des domaines émergents, y compris la sphère numérique, conformément à la Déclaration de Reykjavík adoptée par les chefs d’État et de gouvernement en mai 2023. La valeur ajoutée de la Convention-cadre résidera en partie dans sa portée mondiale, puisqu’elle réunira des États du monde entier désireux de relever les défis globaux posés par l’IA en adoptant une approche fondée sur les droits humains. L’Assemblée comprend donc que le processus de rédaction a dû tenir compte de la diversité des traditions et des systèmes juridiques et politiques, de sorte que le projet de texte contient souvent des dispositions très générales et abstraites, ce qui permet une certaine souplesse dans sa mise en œuvre. Son caractère de “cadre” signifie également qu’elle devra être complétée par d’autres instruments contraignants ou non contraignants concernant l’utilisation de l’IA dans des secteurs spécifiques ou développant davantage certaines dispositions de la convention. L’Assemblée est prête à contribuer à l’élaboration de tels instruments.
6. L’Assemblée est satisfaite du fait que la plupart des principes éthiques clés approuvés dans ses rapports 2020 soient reflétés dans différentes dispositions du projet de Convention-cadre, même si certains de ces principes auraient pu être formulés comme des droits individuels positifs plutôt que comme des principes généraux (par exemple, la protection de la vie privée, l’égalité et la non-discrimination). En outre, il aurait été encore plus clair d’indiquer que chaque gouvernement devrait être tenu d’informer ses citoyens de l’utilisation des systèmes d’IA dans les processus administratifs menant à des décisions juridiques contraignantes. Une autre valeur ajoutée importante de ce projet de Convention-cadre est qu’il vise à protéger non seulement les droits de l’homme, mais aussi les processus démocratiques et l’État de droit dans le contexte de l’IA. Les technologies de l’IA sont susceptibles de perturber le fonctionnement des institutions et des processus démocratiques, par exemple en interférant dans les processus électoraux, en désinformant et en manipulant l’opinion publique. Elles peuvent également avoir un impact sur le fonctionnement de l’État de droit, notamment sur l’indépendance et l’impartialité du pouvoir judiciaire et sur l’accès à la justice. À cet égard, l’Assemblée considère que l’interprétation des «institutions et processus démocratiques» et de l’«État du droit» au sens du projet de Convention-cadre devrait être guidée par les normes pertinentes élaborées au fil des ans par des organes du Conseil de l’Europe tels que la Cour européenne des droits de l’homme et la Commission européenne pour la démocratie par le droit (Commission de Venise), ainsi que par les Principes de Reykjavík pour la démocratie. Les rédacteurs ont toutefois manqué l’occasion de couvrir plus spécifiquement les utilisations positives de l’IA pour les processus démocratiques, par exemple en améliorant la responsabilité des gouvernements et en facilitant l’action et la participation démocratiques.
7. L’Assemblée regrette que le projet de Convention-cadre ne couvre pas de manière égale les acteurs publics et privés. Il introduit plutôt un système où chaque Partie pourra déterminer dans une déclaration comment elle entend traiter les risques et les impacts découlant de l’utilisation de l’IA par les acteurs privés. Ce système est loin d’être idéal pour la sécurité juridique et la prévisibilité des obligations imposées par la Convention-cadre et n’est pas conforme aux positions précédemment exprimées par l’Assemblée, la Commissaire aux droits de l’homme du Conseil de l’Europe et le CAHAI. Cela va également à l’encontre du principe selon lequel les États ont des obligations positives de protéger les individus contre les violations des droits humains commises par des acteurs privés, conformément à la jurisprudence de la Cour européenne des droits de l’homme, aux Principes directeurs des Nations Unies relatifs aux entreprises et aux droits de l’homme et aux recommandations pertinentes du Comité des Ministres du Conseil de l’Europe. De nombreux systèmes d’IA sont développés et déployés par des entités privées, et l’introduction d’une approche différenciée pour le secteur privé crée une lacune importante.
8. L’Assemblée appelle donc fermement tous les États membres du Conseil de l’Europe, lorsqu’ils ratifieront la Convention-cadre et soumettront leurs déclarations au titre de l’article 3.1 (b), à reconnaître la pleine applicabilité des principes et obligations qui y sont énoncés (chapitres II à VI) aux activités des acteurs privés, et à faire rapport en conséquence à la future Conférence des Parties au titre de l’article 24. Elle invite en outre la Conférence des Parties à faire pleinement usage de ses pouvoirs et à procéder à un examen approprié de la manière dont toutes les Parties se conforment à l’article 3.1 (b). L’Assemblée estime qu’une interprétation dynamique de cette disposition par le mécanisme de suivi mis en place par la Convention-cadre favorisera les progrès au fil du temps, par le biais des exigences en matière de rapports et de la pression des pairs, y compris en ce qui concerne les États non membres qui peuvent choisir de ne pas appliquer les obligations de la Convention-cadre aux acteurs privés.
9. Après avoir examiné certaines des propositions des différentes parties prenantes, et en tenant dûment compte de la structure globale et du caractère transversal du texte approuvé, l’Assemblée propose les amendements suivants au projet de Convention-cadre:
9.1. remplacer l’article 3.2 par le texte suivant: «Chaque Partie peut restreindre l’application des dispositions de la présente Convention si les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont nécessaires à la protection de ses intérêts en matière de sécurité nationale ou de défense nationale et si ces activités sont menées de manière compatible avec le droit international applicable, y compris les obligations nées du droit international des droits de l’homme, et dans le respect de ses institutions et processus démocratiques.»;
9.2. supprimer l’article 3.4;
9.3. à l’article 5.1, après «l’efficacité des institutions et processus démocratiques, y compris» ajouter les mots suivants «aux élections libres et équitables,»;
9.4. au chapitre III, ajouter l’article suivant: «Chaque Partie adopte ou maintient des mesures pour préserver la santé et l’environnement dans le cadre des activités menées au cours du cycle de vie des systèmes d’intelligence artificielle, conformément au droit international et interne applicable.»;
9.5. à l’article 14.2 (c) ou dans le rapport explicatif, ajouter une référence aux «autorités judiciaires» ou au «contrôle juridictionnel»;
9.6. à l’article 15.1, ajouter une référence au «contrôle humain»;
9.7. aux articles 16.1, 16.2 (a), (e) et 16.3, après: «l’État de droit» ajouter les mots suivants «et la préservation de l’environnement»;
9.8. remplacer l’article 16.4 par le texte suivant: «Chaque Partie prend les mesures législatives ou autres qui se révèlent nécessaires pour mettre en place des mécanismes de moratoire ou d’interdiction ou des restrictions concernant certaines utilisations des systèmes d’intelligence artificielle lorsque ces utilisations sont considérées comme incompatibles avec le respect des droits de l’homme, le fonctionnement de la démocratie ou l’État de droit.»;
9.9. au chapitre VI, ajouter l’article suivant: «Chaque Partie prend les mesures appropriées pour assurer la protection des lanceurs d’alerte pour les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle qui pourraient avoir un effet préjudiciable sur les droits de l’homme, la démocratie et l’État de droit.»;
9.10. à la fin de l’article 26.2, ajouter la phrase suivante: «Les fonctions et les pouvoirs de ces mécanismes devraient comprendre des pouvoirs d’enquête, le pouvoir de donner suite aux plaintes, l’établissement de rapports périodiques, la promotion, la sensibilisation du public et la consultation sur la mise en œuvre effective de la présente Convention.»
9.11. au chapitre VII, après l’article 26, ajouter l’article suivant: «Participation parlementaire»: «1. Les parlements nationaux sont invités à participer au suivi et à l’examen des mesures prises pour la mise en œuvre de la présente Convention. 2. L’Assemblée parlementaire du Conseil de l’Europe est invitée à faire le bilan, de manière régulière, de la mise en œuvre de la présente Convention.»
10. L’Assemblée souhaite participer à la future Conférence des Parties instituée par la Convention-cadre et s’engager dans la coopération et l’échange d’informations prévus à l’article 25.
11. L’Assemblée invite sa sous-commission sur l’intelligence artificielle et les droits de l’homme à mieux faire connaître la Convention-cadre une fois qu’elle aura été adoptée, notamment en encourageant sa ratification ou son adhésion par les États membres, les États observateurs et les États dont les parlements bénéficient du statut d’observateur ou de partenaire pour la démocratie auprès de l’Assemblée.
12. Enfin, l’Assemblée poursuivra ses travaux sur les questions liées à l’IA, en publiant de nouveaux rapports sur des sujets émergents, en suivant de près les activités normatives du CAI et d’autres organes intergouvernementaux pertinents du Conseil de l’Europe et en y contribuant, le cas échéant.

B. Exposé des motifs par Mme Thórhildur Sunna Ævarsdottir, rapporteure

(open)

1. Introduction

1. En 2021, le Comité des Ministres du Conseil de l’Europe a décidé de créer un Comité ad hoc sur l’intelligence artificielle (CAI) et de lui confier l’élaboration d’un «instrument juridique adéquat sur le développement, la conception et l’application des systèmes d’intelligence artificielle (IA), qui se fonde sur les normes du Conseil de l’Europe en matière de droits de l’homme, de démocratie et d’État de droit et est propice à l’innovation, qui peut être composé d’un instrument juridique contraignant à caractère transversal qui inclut notamment des principes généraux communs, ainsi que d’instruments additionnels contraignants ou non contraignants afin de relever les défis liés à l’application de l’IA dans des secteurs spécifiques» 
			(2) 
			<a href='https://rm.coe.int/0900001680a74d58'>Mandat
du CAI</a>. Voir également le <a href='https://rm.coe.int/native/0900001680addf7e'>mandat</a> actuel.. Le CAI est composé de représentant·es des États membres, de l’Union européenne, des États observateurs auprès du Conseil de l’Europe, d’autres États non européens intéressés (Argentine, Australie, Costa Rica, Israël, Pérou et Uruguay), de représentant·es des organes et comités compétents du Conseil de l’Europe, d’autres organisations internationales et de représentant·es de la société civile et du secteur privé. Le CAI a tenu dix réunions entre avril 2022 et mars 2024 pour établir la version finale d’un projet de Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit («le projet de Convention-cadre» ou «PCC»). Le CAI a soumis le PCC au Comité des Ministres le 15 mars 2024 et ce dernier l’a transmis à l’Assemblée parlementaire le 20 mars 2024, invitant l’Assemblée à donner un avis sur le texte dans les meilleurs délais. L’Assemblée s’est engagée à donner un avis à sa partie de session d’avril 2024, afin de permettre l’adoption de la Convention-cadre («CC») par le Comité des Ministres en temps voulu. Au vu de ces délais, l’avis devait être adopté par la commission des questions juridiques et des droits de l’homme (une fois saisie par le Bureau de l’Assemblée) et débattu en plénière selon la procédure d’urgence. La commission m’a désignée rapporteure lors de sa réunion du 4 mars 2024, sous réserve de la mise au point finale du PCC et de sa transmission à l’Assemblée.
2. En ma qualité d’ancienne présidente de la sous-commission sur l’intelligence artificielle et les droits de l’homme de l’Assemblée (2022-2023), j’ai participé activement à l’ensemble du processus de négociation du PCC et j’ai assisté à plusieurs réunions plénières du CAI au nom de l’Assemblée. Comme d’autres organes du Conseil de l’Europe et représentant·es de la société civile, j’ai eu la possibilité de soumettre des commentaires écrits et des propositions rédactionnelles sur le texte et de les présenter oralement au besoin 
			(3) 
			Le CAI n’a pas publié
ces commentaires. Il a décidé de rendre publiques trois versions
de la convention à différentes étapes du processus: un <a href='https://rm.coe.int/cai-2023-01-fr-projet-zero-revise-de-convention-cadre-public/1680aa1942'>projet
zéro révisé</a>, le 6 janvier 2023, un <a href='https://rm.coe.int/cai-2023-18-fr-projet-de-travail-consolide-de-convention-cadre/1680abde67'>projet
de travail consolidé</a>, le 7 juillet 2023, et un <a href='https://rm.coe.int/cai-2023-28-fr-projet-de-convention-cadre/1680ae19a1'>projet
de Convention-cadre</a>, le 18 décembre 2023, avant la3e et
dernière lecture.. Cela étant, je n’ai pu participer qu’aux réunions plénières et non aux sessions du groupe de rédaction, qui étaient réservées aux Parties potentielles à la Convention-cadre et précédaient les réunions plénières. Je voudrais souligner que certains des derniers compromis sur le texte (en particulier sur son champ d’application) ont été décidés par le groupe de rédaction aux tout derniers stades du processus et ont donc été soumis à la plénière du CAI sans qu’il soit possible, faute de temps, de les analyser et d’en débattre de manière approfondie.
3. Cette Convention-cadre sera le tout premier traité international juridiquement contraignant sur l’intelligence artificielle. Je suis consciente que l’élaboration et la négociation du PCC ont été une tâche et un processus complexes, étant donné la nécessité de concilier les positions des États de différentes régions du monde. La valeur ajoutée de la convention résidera également dans sa portée mondiale, puisqu’elle réunira des Parties de différents continents et de diverses traditions juridiques qui aspirent à réglementer l’IA sous l’angle des droits humains, de la démocratie et de l’État de droit. L’intelligence artificielle est un domaine qui soulève des problématiques de portée mondiale, qu’il faut traiter et réglementer au niveau international. Les chefs d’État et de gouvernement du Conseil de l’Europe ont bien compris l’importance de ce sujet et ils se sont engagés, dans la Déclaration de Reykjavík de mai 2023, à «assurer un rôle de premier plan au Conseil de l’Europe dans l’élaboration de normes à l’ère du numérique pour sauvegarder les droits de l’homme en ligne et hors ligne, y compris en finalisant, en priorité, la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle 
			(4) 
			Voir aussi APCE, Recommandation 2245 (2023), «Le Sommet de Reykjavík du Conseil de l’Europe – Unis
autour de valeurs face à des défis hors du commun», paragraphe 17..» Le Comité des Ministres a maintenant la responsabilité de faire en sorte que la convention finale soit pleinement conforme aux principes et aux valeurs du Conseil de l’Europe.
4. Dans mon exposé des motifs, je commence par présenter les travaux antérieurs et actuels de l’APCE sur l’IA (chapitre 2). J’expose ensuite brièvement les grandes lignes du PCC (chapitre 3). Puis je présente les critiques formulées par les différentes parties prenantes (chapitre 4). Enfin, je donne ma propre évaluation du projet et je propose quelques amendements, qui pourront être intégrés dans l’avis de l’Assemblée, le but ultime étant d’améliorer le texte de la Convention-cadre en vue de sa mise au point définitive (chapitre 5).

2. Les travaux antérieurs et actuels de l’Assemblée sur l’intelligence artificielle

5. Les travaux antérieurs de l’Assemblée sur le thème de l’intelligence artificielle montrent qu’elle a toujours été favorable à la recherche du juste équilibre entre, d’un côté, l’atténuation des risques posés par l’IA et, de l’autre, le souci de mettre pleinement à profit les avantages qu’offre cette technologie. L’Assemblée est fermement convaincue qu’il est nécessaire d’instaurer un cadre réglementaire transversal pour l’IA, définissant des principes spécifiques fondés sur la protection des droits humains, de la démocratie et de l’État de droit.
6. En octobre 2020, l’Assemblée a adopté une série de résolutions et de recommandations (fondées sur sept rapports élaborés par ses différentes commissions 
			(5) 
			Commission
des questions politiques et de la démocratie, commission des questions
juridiques et des droits de l’homme, commission des questions sociales,
de la santé et du développement durable, et commission sur l’égalité
et la non-discrimination. Avant 2020, l’Assemblée avait déjà adopté
la Recommandation 2102
(2017) «La convergence technologique, l’intelligence artificielle
et les droits de l’homme», sur la base d’un rapport de la commission
de la culture, de la science, de l’éducation et des médias.) sur les possibilités et les risques que l’IA présente pour la démocratie, les droits humains et l’État de droit. L’Assemblée parlementaire a approuvé une série de principes éthiques fondamentaux qui devraient être respectés lors du développement et de la mise en œuvre des applications d’IA. Ces principes, qui ont été précisés dans une annexe commune aux rapports, sont la transparence, notamment l’accessibilité et l’explicabilité, la justice et l’équité, y compris la non-discrimination, la prise de décision par une personne, qui est en responsable, et la mise à disposition de voies de recours, la sûreté et la sécurité, et la protection de la vie privée et des données. Cela dit, l’Assemblée considère que «les principes éthiques d’autoréglementation et les politiques mises en place volontairement par des acteurs privés ne sont pas des outils adaptés ni suffisants pour réglementer l’IA, car ils n’entraînent pas nécessairement de contrôle démocratique ni d’obligation de rendre des comptes.» Dans chacune des situations examinées dans ses rapports, l’Assemblée a conclu qu’une réglementation juridique était nécessaire pour éliminer, ou réduire le plus possible, les risques pour la démocratie, les droits humains et l’État de droit. Elle a donc invité le Comité des Ministres à exprimer son soutien quant à l’élaboration d’un «instrument juridiquement contraignant gouvernant l’intelligence artificielle, éventuellement sous la forme d’une convention» [qui soit] «fondé sur une approche globale, se rapporte à l’ensemble des cycles de vie des systèmes fondés sur l’IA, soit destiné à l’ensemble des parties prenantes et comprenne des mécanismes afin de garantir la mise en œuvre de cet instrument» (voir paragraphe 4 de la Recommandation 2181 (2020) «La nécessité d’une gouvernance démocratique de l’intelligence artificielle»). Une telle convention devrait être ouverte aux États non-membres (voir paragraphe 11, alinéa 1, de la Recommandation 2185 (2020) «Intelligence artificielle et santé: défis médicaux, juridiques et éthiques à venir», et paragraphe 2 de la Recommandation 2186 (2020) «Intelligence artificielle et marchés du travail: amis ou ennemis?»).
7. Dans ses résolutions, l’Assemblée a estimé que les acteurs privés devaient entrer dans le champ d’application de l’instrument juridiquement contraignant susmentionné. Par exemple, dans la Résolution 2341 (2020) «La nécessité d’une gouvernance démocratique de l’intelligence artificielle», elle déclare qu’un tel instrument devrait «comporter des dispositions visant à limiter les risques d’utilisation des technologies fondées sur l’IA par des États et des acteurs privés pour contrôler les personnes» (paragraphe 14, alinéa 5) et «comporter des garde-fous pour prévenir les menaces à l’ordre démocratique résultant de la concentration de données, d’informations, du pouvoir et des capacités d’influence dans les mains de quelques grands acteurs privés du développement et de la fourniture de technologies et de services fondés sur l’IA, […] et comporter également des dispositions visant à garantir que les activités de ces acteurs sont soumises à un contrôle démocratique» (paragraphe 14, alinéa 6). Pour l’Assemblée, l’instrument juridiquement contraignant sur l’IA devrait en effet être destiné à toutes les parties prenantes (paragraphe 4, alinéa 2, de la Recommandation 2181 (2020)).
8. Dans sa Résolution 2341 (2020) «La nécessité d’une gouvernance démocratique de l’intelligence artificielle», l’Assemblée a estimé que l’instrument juridiquement contraignant préconisé devrait garantir que les technologies fondées sur l’IA respectent les normes du Conseil de l’Europe (en matière de droits humains, de démocratie et d’État de droit), ainsi que les principes éthiques fondamentaux précités. Il devrait non seulement réduire au minimum le risque que l’IA soit utilisée pour nuire à la démocratie (notamment par l’ingérence dans les processus électoraux et la manipulation), mais aussi tendre à maximiser les effets positifs que l’IA peut avoir sur le fonctionnement de la démocratie, notamment en améliorant la mise en œuvre de la responsabilité des gouvernements, la lutte contre la corruption et la transparence et en rendant la démocratie plus directe. En outre, pour que l’obligation de rendre des comptes soit respectée, le cadre juridique devrait prévoir un mécanisme de contrôle indépendant et proactif faisant intervenir toutes les parties prenantes concernées, ce qui permettrait de garantir le respect effectif de ses dispositions.
9. Dans sa Résolution 2343 (2020) «Prévenir les discriminations résultant de l’utilisation de l’intelligence artificielle», l’Assemblée souligne que de nombreuses utilisations de l’IA peuvent avoir une incidence directe sur l’égalité de l’accès aux droits fondamentaux. Elles peuvent également être à l’origine de discriminations ou exacerber des discriminations existantes, certains groupes (les femmes et les minorités par exemple) se voyant refuser l’accès aux droits de manière disproportionnée. L’Assemblée a donc appelé les États membres à élaborer une législation, des normes et des procédures nationales claires visant à garantir que tout système fondé sur l’IA «respecte les droits à l’égalité et à la non-discrimination partout où son utilisation risquerait d’affecter la jouissance de ces droits». Les gouvernements devraient informer les parlements avant le déploiement de technologies fondées sur l’IA par les autorités publiques. Les États membres devraient promouvoir l’inclusion des femmes, des filles et des minorités dans les filières d’enseignement scientifique et technologique, soutenir la recherche sur les biais de données et promouvoir la culture numérique. Dans sa Recommandation 2183 (2020), l’Assemblée appelle le Comité des Ministres à tenir compte des conséquences particulièrement graves que pourrait avoir le recours à l’IA sur la jouissance des droits à l’égalité et à la non-discrimination lorsqu’il évaluera la faisabilité d’un cadre juridique international applicable à l’IA 
			(6) 
			Ces résolutions et
recommandations ont été adoptées en octobre 2020, alors que le Comité
ad hoc du Conseil de l’Europe sur l’intelligence artificielle (CAHAI)
n’avait pas encore achevé ses travaux sur la faisabilité et les
éléments potentiels d’un cadre juridique pour le développement,
la conception et l’application de l’intelligence artificielle, fondé
sur les normes du Conseil de l’Europe en matière de droits humains,
de démocratie et d’État de droit. Le CAHAI a adopté son <a href='https://rm.coe.int/cahai-2020-23-final-etude-de-faisabilite-fr-2787-2531-2514-v-1/1680a1160f'>Étude
de faisabilité</a> le 17 décembre 2020 et son document final <a href='https://rm.coe.int/cahai-2021-09rev-elements/1680a6d90e'>Éléments
potentiels d’un cadre juridique sur l’intelligence artificielle,
fondés sur les normes du Conseil de l’Europe en matière de droits
de l’homme, de démocratie et d’État de droit</a> le 3 décembre 2021..
10. Dans sa Résolution 2342 (2020), «Justice par algorithme – Le rôle de l’intelligence artificielle dans les systèmes de police et de justice pénale», l’Assemblée appelle à la mise en place de cadres juridiques nationaux pour réglementer l’utilisation de l’IA dans le travail de la police et de la justice pénale, sur la base des principes éthiques fondamentaux mentionnés plus haut. Elle souligne que l’utilisation de l’IA dans les systèmes de police et de justice pénale peut avoir une incidence particulièrement grave sur les droits humains si elle n’est pas correctement réglementée. Son utilisation peut être incompatible avec les principes éthiques fondamentaux, notamment la transparence, la responsabilité de la prise de décision, la justice et l’équité. Dans ce contexte, l’Assemblée recommande notamment aux États membres de tenir un registre de toutes les applications d’IA utilisées, de veiller à ce que chaque application d’IA repose sur une base juridique suffisante, de procéder, initialement et périodiquement, à des études d’impact de ces applications sur les droits humains, de mettre en place des mécanismes de contrôle efficaces et indépendants et de veiller à ce qu’il y ait un contrôle juridictionnel effectif. Dans sa Recommandation 2182 (2020), l’Assemblée appelle également le Comité des Ministres à tenir compte de l’impact particulièrement grave que pourrait avoir le recours à l’IA sur les droits humains dans ce contexte, lorsqu’il évaluera la faisabilité d’un cadre juridique européen.
11. Dans sa Recommandation 2185 (2020) «Intelligence artificielle et santé: défis médicaux, juridiques et éthiques à venir», l’Assemblée souligne qu’elle préconise une convention sur l’IA mettant l’accent sur les incidences de l’intelligence artificielle sur les droits humains en général et sur le droit à la santé en particulier. Elle recommande au Comité des Ministres d’encourager les États membres à élaborer des stratégies nationales d’approche globale pour l’utilisation de l’IA dans les soins de santé, à mettre en place des systèmes d’évaluation et d’autorisation des applications d’IA dans le secteur de la santé et à élaborer un cadre juridique pour clarifier la responsabilité des parties prenantes. L’Assemblée souligne également l’importance de garantir «le respect de la vie privée, la confidentialité et la cybersécurité des données de santé sensibles à caractère personnel» (dans le but de prévenir toute utilisation souveraine ou commerciale abusive de ces données) et le consentement éclairé des utilisateurs des applications de santé reposant sur l’IA. Ces applications ne devraient pas «remplace[r] complètement le jugement humain» afin que les décisions prises dans le cadre des soins de santé professionnels «so[ie]nt toujours validées par des professionnels de santé dûment formés».
12. Dans sa Résolution 2345 (2020) «Intelligence artificielle et marchés du travail: amis ou ennemis?», l’Assemblée appelle l’attention sur le fait qu’«utilisée de manière déraisonnable, l’IA risque de perturber le marché du travail, de fragmenter la vie professionnelle et d’exacerber les inégalités socioéconomiques». L’Assemblée note que «l’utilisation de l’IA pour le recrutement et dans les situations ayant une incidence sur les droits des travailleurs devrait toujours être traitée comme étant “à haut risque” et être soumise dès lors à des exigences réglementaires plus strictes»; elle souligne également qu’il est important que «la mise en œuvre de technologies d’IA affectant les marchés du travail et les droits sociaux individuels fasse l’objet d’un contrôle humain substantiel» et la nécessité de «garantir que toute utilisation de techniques de surveillance sur le lieu de travail est soumise à des précautions particulières en matière de consentement et de protection de la vie privée». Par conséquent, l’Assemblée appelle les États membres à adopter toute une série de mesures à cet égard, et notamment à élaborer des stratégies nationales pour une utilisation responsable de l’IA, à obliger les développeurs d’IA de toujours informer les utilisateurs lorsque ces derniers sont en contact avec des applications d’IA, à concevoir un cadre réglementaire qui favorise la complémentarité entre les applications d’IA et le travail humain et garantisse que ces applications font l’objet d’un contrôle humain approprié, et à faire en sorte que les algorithmes utilisés dans la sphère publique soient compréhensibles, transparents, éthiques et sensibles au genre. L’Assemblée préconise également la mise en place d’une «éducation à l’IA» par le biais des programmes d’éducation au numérique pour les jeunes et des parcours d’apprentissage tout au long de la vie pour tous. Dans sa Recommandation 2186 (2020) sur le même sujet, l’Assemblée recommande que l’instrument juridique européen sur l’IA vise aussi le besoin d’une protection renforcée des droits sociaux liés au travail.
13. Dans sa Résolution 2344 (2020) «Les interfaces cerveau-machine: nouveaux droits ou nouveaux dangers pour les libertés fondamentales?», l’Assemblée évoque «les avantages potentiels immenses des neurotechnologies, en particulier dans le domaine médical», tout en soulignant la «menace sans équivalent et sans précédent pour les valeurs fondamentales des droits humains et de la dignité humaine» que peuvent représenter les interfaces cerveau-machine (ICM). Les technologies ICM doivent être développées dans le respect des droits humains et de la dignité humaine; elles devraient être sûres; elles ne devraient pas être utilisées contre la volonté d’un sujet ou d’une manière qui empêche le sujet d’agir librement et d’être responsable de ses actes; et elles ne devraient pas créer de statut privilégié pour leurs utilisateurs. L’Assemblée invite donc les États membres à établir des cadres éthiques et juridiques pour la recherche, le développement et l’application des technologies ICM et à envisager la création de nouveaux «neurodroits» tels que la liberté cognitive, le droit à l’intimité mentale, l’intégrité mentale et la continuité psychologique. Enfin, dans sa Recommandation 2184 (2020), elle appelle le Comité des Ministres à tenir compte de l’impact de l’IA sur les droits humains en lien avec les systèmes ICM, lors de l’évaluation de la faisabilité d’un cadre juridique pour l’intelligence artificielle.
14. Dans sa Résolution 2346 (2020) «Aspects juridiques concernant les «véhicules autonomes», l’Assemblée souligne que la circulation des véhicules semi-autonomes ou autonomes peut créer un «vide en matière de responsabilité», lorsque l’être humain présent à bord du véhicule ne peut être tenu responsable d’actes pénalement répréhensibles ou délictuels. Il pourrait être nécessaire de reconsidérer le partage de la responsabilité pénale ou civile ou de prévoir des solutions qui puissent se substituer à cette responsabilité. L’Assemblée estime que, puisque les systèmes modernes de conduite automatisée (SCA) reposent sur l’IA, les normes éthiques et réglementaires applicables à l’IA en général devraient également être appliquées à son utilisation dans les véhicules autonomes. Les États membres devraient veiller à ce que la réglementation concernée soit conforme aux normes en matière de droits humains et d’État de droit, notamment au respect du droit à la vie, du droit à la vie privée et de la sécurité juridique. L’Assemblée recommande au Comité des Ministres de tenir compte des effets particulièrement graves que pourrait avoir sur les droits humains le recours à l’intelligence artificielle dans les systèmes de conduite automatisée lorsqu’il évaluera la nécessité et la faisabilité d’un cadre juridique applicable à l’intelligence artificielle.
15. Très récemment, dans sa Résolution 2485 (2023) «Émergence des systèmes d’armes létales autonomes (SALA) et leur nécessaire appréhension par le droit européen des droits humains», l’Assemblée aborde les préoccupations que suscite l’émergence des SALA (systèmes d’armes pouvant attaquer et sélectionner des cibles sans intervention humaine). Elle est favorable à une réglementation claire du développement et de l’usage des SALA afin de veiller au respect du droit international humanitaire et des droits humains, sur la base d’un contrôle humain. Dans ce contexte, elle a approuvé une approche en deux volets proposée par un groupe d’États européens Parties à la Convention sur certaines armes classiques (CCAC). Selon cette proposition, les SALA fonctionnant totalement en dehors du contrôle humain devraient rester interdites, tandis que d’autres armes létales présentant des éléments d’autonomie devraient être soumises à un contrôle humain approprié, offrir la capacité d’imputer la responsabilité à une personne et l’obligation de rendre des comptes, faire l’objet de mesures d’atténuation des risques et présenter des garanties suffisantes. Selon cette résolution, la Conférence des États parties à la CCAC est l’enceinte appropriée pour convenir de la future réglementation des SALA. Dans l’attente d’un accord sur une réglementation contraignante (sous la forme d’un protocole à la CCAC), l’Assemblée propose l’élaboration d’un code de conduite non contraignant.
16. Outre ses rapports et ses résolutions, l’Assemblée parlementaire a organisé plusieurs événements axés sur l’IA ou y a participé 
			(7) 
			Table ronde <a href='https://pace.coe.int/fr/news/9116/artificial-intelligence-freedom-of-expression-and-disinformation-challenges-and-risks-for-democracy'>«L’intelligence
artificielle, la liberté d’expression et la désinformation: défis
et risques pour la démocratie (coe.int)»</a>, 26 mai 2023; <a href='https://pace.coe.int/fr/news/9079/athens-students-explain-how-to-put-ethics-into-ai-at-pace-hearing-with-some-help-from-niki-'>«Des
étudiants d’Athènes expliquent comment intégrer l’éthique dans l’IA
lors d’une audition de l’APCE – avec l’aide de “Niki”» (coe.int)</a>, avril 2023; <a href='https://www.coe.int/fr/web/electoral-management-bodies-conference/programme-and-interventions'>Programme 2022
– Conférences européennes des administrations électorales (coe.int)</a>: conférence «Intelligence artificielle et intégrité
électorale», organisée par la Commission de Venise, novembre 2022.. Le président de l’Assemblée, Theodoros Rousopoulos, a désigné l’IA comme l’une de ses grandes priorités dans son discours inaugural à l’Assemblée lors de la première partie de session de 2024. Il a déclaré: «L’IA doit être accueillie positivement, mais elle doit rester un outil au service des capacités humaines et ne pas se substituer à la volonté et à l’autonomie de l’être humain». L’Assemblée dispose d’une sous-commission spéciale au sein de la commission des questions juridiques et des droits de l’homme, la sous-commission sur l’intelligence artificielle et les droits de l’homme, qui est actuellement présidée par Damien Cottier (Suisse, ADLE). Pendant ma présidence, cette sous-commission a tenu une réunion et un échange de vues sur les bots sociaux et la menace qu’ils représentent pour le débat démocratique et les élections. L’Assemblée continuera à travailler sur les problèmes que pose l’IA et sur les avantages qu’offre cette technologie au regard des droits humains, de la démocratie et de l’État de droit, en publiant de nouveaux rapports et de nouvelles résolutions sur des sujets émergents ou sectoriels 
			(8) 
			Risques et opportunités
du Métavers, Doc. 15636, rapport en cours de la Commission de la culture, de
la science, de l’éducation et des médias. Voir aussi la nouvelle
proposition de résolution sur «L’intelligence artificielle et la
migration», Doc. 15952, 27 mars 2024., en suivant de près les travaux normatifs du CAI et d’autres organismes intergouvernementaux et en contribuant à ces travaux, le cas échéant 
			(9) 
			Par exemple, les travaux
en cours du Comité d’expert·es sur l’intelligence artificielle,
l’égalité et la discrimination (<a href='https://rm.coe.int/0900001680adf17b'>GEC-ADI/AI</a>), où l’Assemblée est représentée par un·e membre de
sa commission sur l’égalité et la non-discrimination. Ce comité
d’experts est chargé d’élaborer une recommandation sur l’impact
des systèmes d’IA, leur potentiel de promotion de l’égalité et les
risques qu’ils peuvent entraîner au regard de la non-discrimination.. Elle souhaite aussi, cela va de soi, participer en qualité d’observateur au futur mécanisme de suivi mis en place par la Convention-cadre (la Conférence des Parties).

3. Grandes lignes du projet de Convention-cadre

17. Le chapitre I du PCC contient des dispositions générales telles que l’objet et le but de la convention (article 1), la définition des systèmes d’intelligence artificielle aux fins de la convention (article 2) et le champ d’application de la convention (article 3). Comme cela est expliqué dans le projet de rapport explicatif («PRE»), «aucune disposition de la présente Convention-cadre n’a pour objet de créer […] de nouvelles obligations en matière de droits de l’homme, ni de compromettre la portée et le contenu des protections applicables existantes, mais plutôt, en énonçant diverses obligations juridiquement contraignantes contenues dans ses chapitres II à VI, de faciliter la mise en œuvre effective des obligations applicables en matière de droits de l’homme de chaque Partie dans le contexte des nouveaux défis soulevés par l’intelligence artificielle.» En ce qui concerne le champ d’application, la disposition la plus difficile et la plus contestée tout au long des négociations, l’article 3, paragraphe 1, alinéa a), impose à chaque Partie d’«applique[r] la présente Convention aux activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle entreprises par les pouvoirs publics ou des acteurs privés qui agissent pour leur compte.» L’article 3, paragraphe 1, alinéa b), oblige toutes les Parties à «répond[re] aux risques et aux impacts découlant des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle par des acteurs privés dans la mesure où ils ne sont pas couverts par l’alinéa a) d’une manière conforme à l’objet et au but de la Convention.» Comme cela est expliqué dans le PRE, «répondre aux risques ne se limite pas simplement à reconnaître ces risques, mais requiert l’adoption ou le maintien de mesures législatives, administratives ou autres appropriées pour donner effet à cette disposition ainsi qu’à la coopération entre les Parties […]». Chaque Partie est tenue de préciser dans une déclaration «la manière dont elle entend mettre en œuvre cette obligation […], soit en appliquant les principes et obligations énoncés aux chapitres II à VI de la Convention-cadre aux activités des acteurs privés, ou en prenant d’autres mesures appropriées». Si les Parties peuvent, à tout moment, modifier leur déclaration, le PRE dispose que «[p]our les Parties qui ont choisi de ne pas appliquer les principes et obligations de la CC en relation aux activités d’autres acteurs privés, les rédacteurs attendent des approches de ces Parties qu’elles se développent dans le temps alors que leurs approches vis-à-vis de la régulation du secteur privé évoluent.» L’article 3, paragraphe 2, exclut du champ d’application de la CC les «activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle liées à la protection de ses intérêts de sécurité nationale, étant entendu que ces activités sont menées de manière compatible avec le droit international applicable, y compris les obligations nées du droit international des droits de l’homme, et dans le respect de ses institutions et processus démocratiques.» Le PRE précise à cet égard que «[t]outes les activités régulières de maintien de l’ordre pour la prévention, la détection, l’investigation et la poursuite des crimes, y compris les menaces à la sécurité publique, demeurent également dans le champ d’application de la CC si, et dans la mesure où, les intérêts de sécurité nationale des Parties ne sont pas en jeu.» Enfin, les paragraphes 3 et 4 de l’article 3 excluent les «activités de recherche et de développement» à certaines conditions («à moins que des essais ou des activités similaires ne soient entrepris d’une manière telle qu’ils sont susceptibles de porter atteinte aux droits de l’homme, à la démocratie et à l’État de droit») ainsi que les «questions relatives à la défense nationale».
18. Le chapitre II contient deux dispositions consacrant des obligations générales en matière de protection des droits humains (article 4) et d’intégrité des processus démocratiques et de respect de l’État de droit (article 5). Si les droits humains auxquels il est fait référence doivent être compris comme désignant les obligations en matière de droits humains découlant des traités internationaux que les Parties sont déjà tenues de respecter (une liste est fournie dans le PRE) ainsi que les protections offertes par le droit interne, le PRE reconnaît qu’il n’existe pas de définition communément admise de l’expression «institutions et processus démocratiques» et donne quelques exemples de domaines dans lesquels l’IA peut présenter des risques: le principe de séparation des pouvoirs, l’indépendance judiciaire, l’accès à la justice (ces trois éléments étant également mentionnés dans le libellé de l’article 5, paragraphe 1), un système efficace d’équilibre des pouvoirs, le pluralisme politique et des élections libres et équitables.
19. Le chapitre III énonce les «principes généraux communs que chaque Partie met en œuvre à l’égard des systèmes d’intelligence artificielle». Il s’agit notamment de la dignité humaine et de l’autonomie individuelle (article 7), de la transparence et du contrôle (article 8), de l’obligation de rendre des comptes et de la responsabilité (article 9), de l’égalité et de la non-discrimination (article 10), du respect de la vie privée et de la protection des données (article 11), de la fiabilité (article 12) et de l’innovation sûre (article 13). Le chapitre IV régit les recours et les garanties procédurales (articles 14 et 15). Les recours en cas de violation des droits humains résultant des activités menées dans le cadre du cycle de vie des systèmes d’IA doivent être accessibles et effectifs. Des garanties procédurales effectives doivent être disponibles lorsqu’un système d’IA a un impact significatif sur la jouissance des droits humains. Le chapitre V contient une disposition unique et spécifique sur le «cadre de gestion des risques et des impacts», qui met les Parties dans l’obligation «d’identifier, d’évaluer, de prévenir et d’atténuer les risques posés par les systèmes d’intelligence artificielle en tenant compte des impacts réels et potentiels sur les droits de l’homme, la démocratie et l’État de droit» (article 16, paragraphe 1). Comme expliqué dans le PRE, le but de cette disposition est de garantir une approche uniforme de l’évaluation des risques et de l’impact, tout en laissant aux Parties une certaine marge de manœuvre dans les mesures choisies, qui, en tout état de cause, doivent être «graduées et différenciées, le cas échéant» (article 16, paragraphe 2). Dans ce cadre, l’article 16, paragraphe 4, dispose que les Parties «évalu[ent] la nécessité d’un moratoire, d’une interdiction ou d’autres mesures appropriées concernant certaines utilisations de systèmes d’IA lorsqu’elle[s] considère[nt] que ces utilisations sont incompatibles avec le respect des droits de l’homme, le fonctionnement de la démocratie ou l’État de droit.» Selon le PRE, il incombe à chaque Partie de déterminer ce qui est «incompatible» dans ce contexte.
20. Le chapitre VI sur la «mise en œuvre de la Convention» contient des clauses transversales ou interprétatives sur la non-discrimination (article 17), les droits des personnes handicapées et des enfants (article 18), la consultation publique (article 19), la maîtrise du numérique et les compétences numériques (article 20), la sauvegarde des droits humains reconnus (article 21) et la protection plus étendue (article 22).
21. Le chapitre VII comporte des dispositions concernant «le mécanisme de suivi et la coopération». L’article 23 porte création d’un mécanisme de suivi: la Conférence des Parties. Cette conférence sera composée de représentant·es des Parties. Elle aura le pouvoir d’identifier les problèmes liés à l’utilisation et à la mise en œuvre de la convention, de faire des propositions de modification et de formuler un avis sur toute proposition de modification, d’exprimer des recommandations spécifiques sur toute question relative à l’interprétation ou à l’application de la convention, de faciliter l’échange d’informations, de faciliter le règlement à l’amiable des litiges et de faciliter la coopération avec les parties prenantes pertinentes (article 23, paragraphe 2, selon l’interprétation qu’en donne le PRE). La fréquence à laquelle la Conférence doit être convoquée n’est pas précisée, mais l’article 23, paragraphe 2, indique que les Parties «se concertent périodiquement» et l’article 23, paragraphe 4, fait obligation à la Conférence des parties d’adopter son règlement intérieur «dans un délai de 12 mois à compter de l’entrée en vigueur» de la convention. Il est intéressant de noter que l’article 24 instaure une obligation, pour chaque Partie, d’adresser un rapport à la Conférence des Parties «dans un délai de deux ans à compter de la date à laquelle elle devient Partie, puis de manière périodique». Cette obligation faite aux États d’adresser des rapports s’applique également aux activités que chaque Partie entreprend pour donner effet à l’obligation énoncée à l’article 3, paragraphe 1, alinéa b) (répondre aux risques découlant des activités menées par des acteurs privés). L’article 25 énonce les dispositions relatives à la coopération internationale entre les Parties (essentiellement l’échange d’informations). L’article 26 exige des Parties qu’elles «met[tent] en place ou désigne[nt] un ou plusieurs mécanismes effectifs de contrôle du respect des obligations nées de la […] Convention» («mécanismes de contrôle effectifs»). Les Parties peuvent en effet créer des mécanismes ou des structures spécialisés ou adapter ou redéfinir les fonctions de ceux qui existent déjà. Elles ont l’obligation de faciliter ou de promouvoir la coopération entre les différents mécanismes désignés et entre ces derniers et les structures nationales existantes en matière de droits humains (article 26, paragraphes 3 et 4).
22. Le chapitre VIII, «Clauses finales», contient des clauses analogues à celles figurant dans d’autres conventions du Conseil de l’Europe. Il est important de noter que conformément à l’article 34, la seule réserve qu’un État peut formuler à l’égard de la convention est celle prévue à l’article 33, paragraphe 1 (dite «clause fédérale»). Aucune autre réserve n’est possible.

4. Critiques émanant de différentes parties prenantes

23. Lors des phases finales des négociations sur la CC (mars 2024), plusieurs organisations de la société civile ont publié une lettre ouverte commune adressée aux États et à l’Union européenne. Les signataires étaient, entre autres, des citoyens, des universitaires, des spécialistes des technologies numériques et des organisations de la société civile qui avaient observé les négociations, notamment la Conférence des OING du Conseil de l’Europe (COING) 
			(10) 
			«<a href='https://ecnl.org/news/open-letter-coe-ai-convention-negotiators-do-not-water-down-our-rights'>Open
letter to COE AI Convention negotiators: Do not water down our rights</a>», ECNL, 5 mars 2024.. Dans cette lettre, les signataires demandent aux négociateurs «de traiter de la même façon le secteur public et le secteur privé» et «de rejeter sans équivoque les exemptions générales en matière de sécurité nationale et de défense». Ils soulignent qu’en excluant le secteur privé de son champ d’application, la convention «donne un blanc-seing à ces entreprises plutôt que de protéger efficacement les droits humains, la démocratie et l’État de droit». En ce qui concerne l’exemption générale en matière de sécurité nationale et de défense, les signataires de la lettre font valoir que «rien ne justifie la renonciation inconditionnelle aux garanties prévues par le droit international, européen et national qui s’appliquent habituellement dans ces domaines». Cette lettre rejoint plusieurs initiatives analogues adressées à la délégation de l’UE 
			(11) 
			Lettre
du 24 janvier 2024: «<a href='https://www.caidp.org/statements/'>CAIDP Statements –
Center for AI and Digital Policy</a>». et à l’administration Biden 
			(12) 
			Lettre du 24 janvier
2024: «<a href='https://www.caidp.org/statements/'>CAIDP
Statements – Center for AI and Digital Policy</a>».. Dans la lettre adressée au secrétaire d’État Antony Blinken, il est indiqué ce qui suit: «Si le Département d’État des États-Unis est particulièrement préoccupé par l’alignement du traité sur le droit national, la solution consiste à prévoir une dérogation ou une exception aux dispositions qui, selon vous, peuvent être incompatibles avec le droit américain; elle ne consiste pas à demander à tous les autres pays concernés de renoncer aux garanties qu’ils sont prêts à mettre en place».
24. Dans une déclaration publiée le 11 mars 2024 en vue de la dernière réunion plénière du CAI, le Contrôleur européen de la protection des données (CEPD) soulève plusieurs points préoccupants. Le CEPD craint que «le caractère très général des dispositions juridiques du projet de Convention-cadre et leur nature largement déclarative ne conduisent inévitablement à des divergences dans l’application de la convention, ce qui compromettrait la sécurité juridique et, de façon plus générale, la valeur ajoutée du traité». En ce qui concerne son champ d’application, rappelant que le Comité des Ministres avait chargé le CAI d’élaborer un «instrument juridique contraignant à caractère transversal», le CEPD souligne que «toute limitation du champ d’application de la future Convention-cadre aux seules activités entreprises par les autorités publiques ou par les entités agissant en leur nom irait à l’encontre du but politique général de la Convention-cadre». Le CEPD s’inquiète également de «l’absence de “lignes rouges” dans le projet de Convention-cadre, qui permettraient d’interdire d’emblée les applications d’IA présentant des niveaux de risque inacceptables». À cet égard, «les dernières versions du projet de Convention-cadre et le rapport explicatif n’offrent pas de critères clairs et non ambigus à respecter ni d’exemples précis des utilisations prohibées» 
			(13) 
			<a href='https://www.edps.europa.eu/press-publications/press-news/press-releases/2024/edps-statement-view-10th-and-last-plenary-meeting-committee-artificial-intelligence-cai-council-europe-drafting-framework-convention-artificial_en'>«EDPS
statement in view of the 10th and last Plenary Meeting of the Committee
on Artificial Intelligence (CAI) of the Council of Europe drafting
the Framework Convention on Artificial Intelligence, Human Rights,
Democracy and the Rule of Law», European Data Protection Supervisor
(europa.eu)</a>..
25. Le Réseau européen des institutions nationales des droits de l’homme (REINDH), qui a participé aux négociations en qualité d’observateur, a fait la déclaration suivante à l’issue de la dernière session plénière du CAI, le 14 mars 2024, pour exprimer son inquiétude 
			(14) 
			«<a href='https://ennhri.org/news-and-blog/draft-convention-on-ai-human-rights-democracy-and-rule-of-law-finalised-ennhri-raises-concerns/'>Draft
Convention on AI, Human Rights, Democracy and Rule of Law finalised:
ENNHRI raises concerns – ENNHRI</a>». Voir également la précédente position commune du réseau
tout au long de la négociation (<a href='https://ennhri.org/wp-content/uploads/2023/12/ENNHRI-common-position-on-the-draft-Framework-Convention-on-AI.pdf'>position
commune</a>), qui contient des propositions intéressantes sur les
mécanismes de contrôle.:
«le REINDH a pris une part active à l’ensemble des négociations en qualité d’observateur. Nous avons demandé à pouvoir participer au processus de négociation et notre contribution est toujours allée dans le sens d’une convention intégrant une approche de l’intelligence artificielle fondée sur les droits humains. Il y a eu des obstacles en cours de route, mais aussi, nous l’avons constaté, une réelle volonté de trouver des solutions pour lever ces obstacles, ce qu’il convient de saluer.
Du point de vue des droits humains, nous nous réjouissons que le projet de convention prévoie la possibilité de déposer un recours, qu’il soit attentif à la dignité humaine et à l’autonomie individuelle, et qu’il fasse référence aux processus de consultation publique. Les libellés des dispositions correspondantes témoignent d’une détermination à protéger les droits humains, la démocratie et l’État de droit.
Cela dit, nous sommes convaincus que la convention ne saurait garantir des normes élevées de protection des droits humains sans tenir compte de certains aspects:
– Premièrement, la convention devrait traiter le secteur public et le secteur privé de la même manière. C’est ce que recommandaient différents instruments et normes du Conseil de l’Europe, notamment la Recommandation CM/Rec(2020)1 du Comité des ministres aux États membres sur les impacts des systèmes algorithmiques sur les droits de l’homme et la Recommandation CM/Rec(2022)13 aux États membres sur les effets des technologies numériques sur la liberté d’expression. Cette exigence va également dans le sens de l’engagement pris dans la Déclaration de Reykjavik «à assurer un rôle de premier plan au Conseil de l’Europe dans l’élaboration de normes à l’ère du numérique pour sauvegarder les droits de l’homme en ligne et hors ligne». Étant donné que de nombreux systèmes d’IA sont développés et déployés par des organismes privés, le secteur privé est un acteur central dans ce domaine, qui pèse lourdement sur la façon dont l’IA influe sur les droits humains, la démocratie et l’État de droit. Une convention qui établit une approche différenciée pour le secteur privé, y compris une réglementation non contraignante, crée un manque de protection important.
– Deuxièmement, le champ d’application de la convention devrait également englober les systèmes d’IA utilisés pour la sécurité nationale, notamment pour la surveillance renforcée, la collecte de données et les processus décisionnels visant à éliminer les menaces perçues contre la sécurité nationale, ces systèmes pouvant présenter des risques importants pour les droits humains, la démocratie et l’État de droit. Ces systèmes d’IA peuvent porter atteinte à la liberté de circulation, de réunion pacifique, d’association et d’expression, ainsi qu’aux droits à la non-discrimination, à la participation et au respect de la vie privée, entre autres. L’exclusion de la sécurité nationale du champ d’application de la convention crée un manque de protection des droits humains. Conformément à la Convention européenne des droits de l’homme (CEDH) et au Pacte international relatif aux droits civils et politiques (PIDCP), la sécurité nationale pourrait constituer une base légitime pour apporter des restrictions, mais elle reste soumise aux dispositions de ces conventions.
– Troisièmement, le REINDH constate avec préoccupation que d’autres éléments essentiels permettant de garantir une approche de l’IA basée sur les droits humains sont absents du projet de convention. L’absence de certains éléments, notamment des critères d’interdiction clairs et non ambigus, met à mal le principe d’obligation de rendre des comptes et le principe de transparence, qui sont nécessaires pour garantir une protection efficace des droits humains. Ces préoccupations sont d’autant plus fortes que le projet de convention ne prévoit pas de mécanismes de contrôle suffisamment solides et indépendants au niveau du Conseil de l’Europe ni au niveau national.
– En outre, l’imprécision des termes utilisés a pour effet de vider les engagements de leur substance et soulève des inquiétudes quant à l’applicabilité et à l’efficacité des obligations énoncées dans le projet de convention. Citons notamment l’utilisation récurrente, dans le projet de convention, des expressions «viser à garantir» ou «autant que faire se peut» et «le cas échéant». De même, l’emploi fréquent de l’expression «conformément au droit interne» est en contradiction avec la finalité de la convention, qui est de garantir des normes juridiques internationales communes.
Le REINDH a, à maintes reprises, instamment demandé au CAI de remédier à ces problèmes, pour que soit adoptée une convention du Conseil de l’Europe efficace, qui protège les droits humains, la démocratie et l’État de droit dans le contexte de l’IA.
Le REINDH appelle le Comité des Ministres à assurer une protection efficace des droits humains dans la convention, et à répondre ainsi à ses préoccupations».
26. Le 15 mars 2024, le Réseau européen des organismes de promotion de l’égalité (Equinet), qui a également participé aux négociations en qualité d’observateur, a exprimé publiquement des préoccupations analogues 
			(15) 
			<a href='https://www.linkedin.com/company/equineteurope/posts/?feedView=all'>Equinet,
Réseau européen des organismes de promotion de l’égalité, messages
publiés, LinkedIn</a>.. Equinet estime qu’il est important de reconnaître clairement la nécessité d’améliorer certains aspects de la CC, non seulement pour des besoins de transparence et d’obligation de rendre des comptes, mais aussi dans l’optique de la mise en œuvre de la convention, afin de trouver des solutions pour combler les lacunes mises en évidence.
27. Dans une déclaration publiée le 13 mars 2024, la Commissaire aux droits de l’homme du Conseil de l’Europe disait espérer que les négociations débouchent sur «un traité solide, fondé sur les droits humains, qui s’attaquera efficacement aux effets négatifs de l’IA sur les personnes et la société et qui rendra l’utilisation des systèmes d’IA plus prévisible et plus fiable dans le monde entier». Elle formulait en outre les recommandations suivantes 
			(16) 
			<a href='https://www.coe.int/fr/web/commissioner/-/ai-instrument-of-the-council-of-europe-should-be-firmly-based-on-human-rights'>«L’instrument
du Conseil de l’Europe sur l’IA devrait être fondé sur les droits
humains»</a>. Voir aussi: <a href='https://rm.coe.int/decoder-l-intelligence-artificielle-10-mesures-pour-proteger-les-droit/168094b6e2'>Décoder l’intelligence
artificielle: 10 mesures pour protéger les droits de l’homme</a>, 2019.:
«Compte tenu du rythme et de la portée des avancées technologiques actuelles, la Convention devrait comprendre une obligation positive des États de créer un cadre juridique et réglementaire qui protège efficacement les personnes contre toutes les violations des droits humains, qu’elles soient commises par des acteurs publics ou privés. Toute exclusion du champ d’application de la Convention devrait reposer sur le droit et être nécessaire et proportionnée dans une société démocratique. Il est également essentiel que la Convention établisse des critères précis pour identifier et interdire les risques inacceptables pour les droits humains, la démocratie et l’État de droit dans l’ensemble des États parties. Enfin, elle devrait garantir expressément le droit à un recours effectif, y compris le droit à un examen, par des êtres humains, des décisions automatisées, conformément à l’article 13 de la Convention européenne des droits de l’homme.»
28. Jan Kleijssen, membre du conseil consultatif de l’ALLAI (organisation indépendante chargée de promouvoir une IA responsable) et ancien directeur Société de l’Information – Action contre la criminalité au Conseil de l’Europe, a aussi fait publiquement quelques commentaires après que le CAI a finalisé le PCC 
			(17) 
			<a href='https://www.linkedin.com/search/results/all/?heroEntityKey=urn%3Ali%3Afsd_profile%3AACoAAAMMzy0BX4minxZ6blk6fW-AjSM9N9jM9pY&keywords=Jan%20Kleijssen&origin=ENTITY_SEARCH_HOME_HISTORY&sid=~W4'>«Jan
Kleijssen», recherche, LinkedIn</a>.:
«Si beaucoup se sont réjouis de l’accord, de nombreuses critiques ont également été émises tant sur la procédure que sur le résultat final […]. Je suis d’accord avec ceux qui sont mécontents de la manière dont le processus de négociation s’est déroulé, le modèle multipartite envisagé n’ayant pas été pleinement respecté. […] Ce n’est un secret pour personne, le projet approuvé n’est pas à la hauteur des attentes élevées fondées sur le rapport final du CAHAI, le comité pionnier qui a préparé le terrain en vue des négociations. Comme beaucoup d’autres, j’ai beaucoup insisté pour que soit élaboré un instrument solide, notamment en ce qui concerne le secteur privé, les questions de sécurité nationale et les évaluations des incidences sur l’environnement. La future Conférence des Parties peut et doit jouer un rôle déterminant dans la mise en œuvre et l’évolution de la convention. Des comités conventionnels similaires, tels que le TPD et le TCY, ont veillé à ce que les conventions respectives sur la protection des données et la cybercriminalité deviennent des références mondiales efficaces – avec des États parties sur tous les continents.»
29. La COING (au nom de son président et de son comité directeur sur l’IA) a également soumis à l’Assemblée plusieurs recommandations en vue de l’élaboration du présent avis. Elle soulève trois points et propose des modifications concrètes. Tout d’abord, elle se déclare très hostile à l’exemption générale concernant la sécurité nationale. En effet, la sécurité nationale devrait plutôt être un motif légitime pour limiter l’application de la Convention-cadre, sur la base de la légalité, de la nécessité et de la proportionnalité. Étant donné que la CC ne crée pas de nouveaux droits, mais qu’elle adapte des droits existants au contexte de l’IA, le fait même qu’elle exclue de son champ la sécurité nationale ne saurait être justifié. Ensuite, la santé et l’environnement devraient être réintroduits dans la liste des principes (chapitre III) ou, sinon, dans la disposition relative au cadre de gestion des risques et des impacts (article 16). Enfin, des termes imprécis sont utilisés dans l’ensemble du texte, ce qui risque de créer une incertitude juridique et de rendre impossible l’application de la convention. La COING propose donc de remplacer, dans toutes les dispositions clés, les expressions telles que «viser à garantir» (seek to ensure) par «garantir»/«veiller à ce que» (ensure) (par exemple, à l’article 5, paragraphe 1, et à l’article 15, paragraphe 2).
30. Le 11 avril 2024, j’ai reçu une communication d’Amnesty International contenant plusieurs recommandations et améliorations à apporter à la DFC adressées à l’Assemblée (ainsi qu’au Comité des Ministres) 
			(18) 
			Pour plus de détails,
voir: <a href='https://www.amnesty.eu/news/council-of-europe-amnesty-internationals-recommendations-on-the-draft-framework-convention-on-artificial-intelligence-human-rights-democracy-and-the-rule-of-law/'>Council
of Europe: Amnesty International's Recommendations on the Draft
Framework Convention on Artificial Intelligence, Human Rights, Democracy
and the Rule of Law – European Institutions Office</a>.. Il s’agit notamment de tracer des lignes rouges claires sur les pratiques basées sur l’IA qui sont incompatibles avec les droits humains, telles que les systèmes utilisés pour la reconnaissance faciale publique, la police prédictive, etc.; le rejet des exemptions générales pour la sécurité nationale, la défense et la recherche et le développement; l’inclusion dans le champ d’application de tous les acteurs privés et publics; la mise en place d’un cadre global fondé sur les droits; assurer une transparence et une responsabilisation efficaces pour les développeurs et les déployeurs d’IA; assurer une diligence raisonnable efficace en matière de droits de l’homme tout au long du cycle de vie de l’IA; assurer des recours efficaces pour les personnes et les communautés touchées; l’établissement d’obligations claires pour soutenir une participation significative des communautés touchées, des organisations de la société civile et des experts des droits de l’homme; et l’établissement d’obligations claires pour assurer une application cohérente et efficace de la Convention.

5. Évaluation et améliorations possibles

5.1. Aspects positifs du projet de Convention-cadre

31. Tout d’abord, la Convention-cadre sera le premier traité mondial sur l’intelligence artificielle fondé sur le respect des droits humains, de la démocratie et de l’État de droit. Le fait qu’il s’agisse d’une convention ouverte aux États non-membres ayant participé aux négociations et à d’autres pays non européens du monde entier qui pourront la rejoindre à un stade ultérieur revêt une dimension cruciale. Comme je l’ai indiqué en introduction, les défis et risques que représente l’intelligence artificielle ont une dimension transnationale et doivent être abordés dans le cadre d’un instrument de portée mondiale. Aussi, je comprends tout à fait que le projet de Convention-cadre ait été conçu de manière à en faciliter la ratification ou l’adhésion par des États ayant des traditions politiques et juridiques différentes et à offrir une souplesse et une marge d’appréciation suffisantes pour sa mise en œuvre. En outre, il convient de reconnaître le fait que le premier traité international visant à réglementer l’intelligence artificielle repose sur une approche fondée sur les droits humains et l’acquis du Conseil de l’Europe (droits de l’homme, démocratie et État de droit) comme une réussite majeure pour le Conseil de l’Europe, qui témoigne de son leadership international en matière d’établissement de normes dans les nouveaux secteurs. Ce constat a déjà pu être observé pour de précédentes conventions ouvertes du Conseil de l’Europe telles que la Convention de Budapest (sur la cybercriminalité) et la Convention sur la protection des données (STCE no°108).
32. Je suis également ravie de constater que la plupart des grands principes éthiques soulignés par l’Assemblée parlementaire dans ses rapports publiés en 2020 transparaissent d’une manière ou d’une autre dans le texte du projet de Convention-cadre: la transparence, y compris l’accessibilité et l’explicabilité (dans l’article 8); la justice et l’équité, y compris la non-discrimination (dans les articles 10, les articles 14 et 15 relatifs aux recours et aux garanties procédurales et l’article 17); la responsabilité (dans l’article 9 portant sur l’obligation de rendre des comptes et la responsabilité); la sécurité et la sûreté (dans l’article 12 relatif à la fiabilité) et la vie privée (dans l’article 11). Je salue en outre l’inclusion du principe général de dignité humaine et d’autonomie individuelle, fondement de tous les droits humains 
			(19) 
			La Cour européenne
des droits de l’homme considère que le respect de la dignité humaine
est l’essence même de la Convention européenne des droits de l’homme
(CEDH) et que la notion d’autonomie personnelle reflète un principe important
sur lequel se fonde l’interprétation du droit au respect à la vie
privée garanti par l’article 8 de la CEDH (voir Pretty c. Royaume-Uni, jugement
du 29 avril 2002, paragraphes 61 et 65).. L’Assemblée a déjà considéré que certaines technologies telles que les interfaces cerveau-machine représentent une menace pour les droits humains et, plus généralement, pour la dignité humaine; elle a souligné par conséquent qu’il importe d’appliquer à ce propos les principes de capacité, d’autonomie, d’action humaine et de responsabilité 
			(20) 
			Résolution 2344 (2020) «Les interfaces cerveau-machine: nouveaux droits ou
nouveaux dangers pour les libertés fondamentales?»..
33. Une autre valeur ajoutée significative de cette convention réside dans le fait qu’elle vise à protéger, lorsqu’il est question d’intelligence artificielle, non seulement les droits humains mais aussi les deux autres valeurs essentielles du Conseil de l’Europe que sont la démocratie et l’État de droit (voir l’article 5, qui transparaît également dans le titre même de la convention). Les technologies d’intelligence artificielle sont susceptibles de perturber le fonctionnement des institutions et processus démocratiques, notamment par leur ingérence dans les processus électoraux, la désinformation et la manipulation de l’opinion publique. Elles peuvent également avoir un impact sur le fonctionnement de l’État de droit, y compris sur l’indépendance et l’intégrité du pouvoir judiciaire et l’accès à la justice. L’utilisation de l’intelligence artificielle par les systèmes de police et de justice pénale soulève ainsi de sérieuses questions au sujet du principe de la responsabilité humaine de la prise de décisions, de la justice et de l’équité 
			(21) 
			Voir
la Résolution 2342 (2020) «Justice par algorithme – Le rôle de l’intelligence
artificielle dans les systèmes de police et de justice pénale».. Si le texte de la Convention n’inclut pas de définition commune des «institutions et processus démocratiques», le projet de rapport explicatif fournit en revanche une liste non exhaustive de principes qui pourraient être menacés par l’intelligence artificielle: la séparation des pouvoirs, le pluralisme politique, l’indépendance de la justice, les élections libres et équitables, l’État de droit, etc. À mon avis, l’interprétation de l’article 5 devrait également reposer sur les notions interdépendantes de démocratie et d’État de droit élaborées au fil des ans par les différents organes du Conseil de l’Europe, en particulier la Cour européenne des droits de l’homme (les notions de «société démocratique» et de «principe de l’État de droit» sur lesquels se fonde la CEDH), la Commission de Venise (la liste des critères de l’État de droit 
			(22) 
			Commission de Venise, <a href='https://www.venice.coe.int/webforms/documents/default.aspx?pdffile=CDL-AD(2016)007-f'>Liste
des critères de l’État de droit</a>.) ou les Principes de Reykjavik pour la démocratie adoptés par les chefs d’État et de gouvernement 
			(23) 
			Annexe III de la Déclaration
de Reykjavik..
34. D’autres aspects très positifs du projet de Convention-cadre sont la mention expresse de l’égalité de genre (article 10) et des femmes (Préambule) à propos de la non-discrimination, l’obligation de tenir dûment compte des vulnérabilités en rapport avec le respect des droits des personnes handicapées et des enfants (article 18) 
			(24) 
			À ce propos, la commission
des questions sociales a récemment adopté un projet de rapport sur
«La protection des enfants contre la violence en ligne». Dans le
projet de recommandation, elle a invité le Comité des Ministres
à prendre en considération l’intérêt supérieur de l’enfant dans
le projet de Convention-cadre. Une commission de l’APCE demande de nouvelles
lois pour protéger les enfants en ligne., l’obligation d’examiner les questions importantes soulevées par les systèmes d’intelligence artificielle dans le cadre d’un débat public et de consultations multipartites, «à la lumière des incidences sociales, économiques, juridiques, éthiques, environnementales et des autres pertinentes» (article 19) et l’obligation de promouvoir la maîtrise du numérique et les compétences numériques adéquates (article 20). À cet égard, l’Assemblée a souligné le fait que l’intelligence artificielle est susceptible d’entraîner ou d’exacerber la discrimination qui touche certains groupes, dont les femmes, et que l’accès des femmes aux professions scientifiques et technologiques devrait être amélioré par souci de respect de la diversité et de l’égalité 
			(25) 
			Résolution 2343 (2020) «Prévenir les discriminations résultant de l’utilisation
de l’intelligence artificielle».. Elle a également appelé les États membres à promouvoir la maîtrise du numérique ou de l’intelligence artificielle en général et dans des contextes spécifiques 
			(26) 
			Résolution 2343 (2020)«Prévenir les discriminations résultant de l’utilisation
de l’intelligence artificielle»; Recommandation 2185 (2020) «Intelligence artificielle et santé: défis médicaux,
juridiques et éthiques à venir»; Résolution 2345 (2020) «Intelligence artificielle et marchés du travail: amis
ou ennemis?»..
35. En ce qui concerne le mécanisme de suivi, je salue l’introduction, à un stade déjà bien avancé des négociations, de l’obligation pour la Conférence des Parties d’adopter son propre règlement intérieur «dans un délai de 12 mois à compter de l’entrée en vigueur de la présente Convention» (article 23.4). Cela facilitera effectivement la mise en œuvre de l’obligation de rapport par les premiers États qui ratifieront la Convention-cadre, tenus de fournir leur premier rapport dans un délai de deux ans à compter de la date à laquelle ils deviennent Partie. L’obligation de rapport inscrite à l’article 24 (qui découle du compromis obtenu sur à la portée de l’application de l’article 3) sera essentielle pour l’interprétation, la mise en œuvre et le développement de la Convention, notamment à l’égard du secteur privé. J’aurais préféré voir dans l’article 23.2 une évocation explicite du pouvoir d’examen ou de suivi de la mise en œuvre de la Convention par la Conférence des Parties mais, d’après ce que je comprends, la possibilité d’identifier tout problème entravant l’utilisation et la mise en œuvre effectives (article 23.2.a) et la faculté de «formuler des recommandations particulières relatives à l’interprétation et à l’application de la présente Convention» (article 23.2.c) constituent un fondement juridique suffisant pour l’examen ou l’évaluation nécessaires à un système de rapports efficace 
			(27) 
			La Convention de Budapest
sur la cybercriminalité a ainsi établi un système de consultations
des Parties ayant des fonctions similaires (identification des problèmes,
échange d’informations) (voir l’article 46). Sur cette base, les
Parties ont créé le Comité de la Convention sur la cybercriminalité
(T-CY) et inclus dans son règlement intérieur le pouvoir de procéder
«à des évaluations relatives à la mise en œuvre de la Convention
par les Parties afin de renforcer l’application pratique de la Convention».
Cela inclut l’envoi de questionnaires aux Parties et la préparation
de rapports d’évaluation sur les différentes dispositions de la
Convention basés sur la compilation des réponses à ces questionnaires.. Le projet de rapport explicatif indique que «[b]ien qu’elles ne soient pas juridiquement contraignantes, ces recommandations peuvent être considérées comme l’expression d’une opinion commune des Parties sur un sujet donné, qui devrait être prise en compte de bonne foi par les Parties dans leur mise en œuvre de la Convention-cadre».
36. Je trouve également intéressant que la Conférence des Parties soit chargée de faciliter la coopération avec les «parties prenantes pertinentes» (article 23.2.f)) et que ces dernières puissent aussi être associées aux échanges d’information et à la coopération envisagée entre les Parties «le cas échéant» (article 25.2 et 3). D’après le projet de rapport explicatif, les «parties prenantes pertinentes» devraient inclure les organisations non gouvernementales, les acteurs non étatiques (universitaires, représentants de l’industrie) ainsi que les autres organismes susceptibles d’améliorer l’efficacité du mécanisme de suivi. Bien qu’il eût été préférable de prévoir dans le texte de la Convention ou, tout au moins dans le projet de rapport explicatif, la possibilité d’inviter les «parties prenantes pertinentes», y compris d’autres organes du Conseil de l’Europe, en qualité d’observateurs aux réunions de la Conférence des Parties, j’ai confiance dans le fait que l’Assemblée aura la possibilité de prendre part aux échanges d’information et à la coopération envisagés.

5.2. Axes d’amélioration du projet de Convention-cadre et propositions d’amendements

37. Je partage l’avis du Réseau européen des institutions nationales des droits de l’homme et des organisations de la société civile sur le fait que certains termes et qualificatifs utilisés dans le texte pourraient poser des difficultés susceptibles d’entraver l’applicabilité et l’application uniforme de la Convention. Ainsi, l’utilisation de «vise à garantir» ou «cherche à veiller à ce que» au lieu de «garantit» ou «veille à ce que» (article 5.1 et article 15.2, par exemple), «le cas échéant» (article 16.2.g et article 19, par exemple), «autant que faire se peut» (article 26.3 et article 26.4), et les fréquentes références à «l’ordre juridique interne», au «système juridique interne» ou au «droit interne» (articles 6, 14.1, 15.1 et 18) peuvent être perçues comme mettant en cause la sécurité juridique et la prévisibilité de l’interprétation de la Convention. Pour ce qui est de l’utilisation d’expressions telles que «vise à garantir», aucune raison ne justifie par exemple de traiter différemment l’obligation générale de garantir le respect des droits de l’homme (article 4) et l’obligation générale de protéger les institutions et processus démocratiques (article 5). Les deux obligations devraient être lues à la lumière de l’objet et du but de la Convention qui sont de «garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits de l’homme, la démocratie et l’État de droit». En ce qui concerne les multiples mentions du «droit interne», le projet de rapport explicatif énonce que «toutes les références au droit interne dans la présente Convention-cadre doivent être interprétées comme se limitant aux cas où le droit interne prévoit un niveau de protection des droits de l’homme plus élevé que le droit international applicable» (commentaire relatif à l’article 21). Si cette disposition est appliquée de façon cohérente, alors les obligations internationales (en lien avec les droits humains) devraient toujours être la norme minimale applicable à laquelle les dispositions du droit interne ne peuvent pas déroger (voir également le commentaire relatif à l’article 4).
38. Je regrette que le projet de Convention-cadre utilise le terme «principes» et non «droits» en référence à des droits établis par le droit international (Chapitre III). Par exemple, le droit à la non-discrimination et à l’égalité et le droit à la vie privée devraient être présentés comme des droits positifs des individus. Cela n’aurait pas impliqué la création de nouveaux droits humains, les États qui ont participé aux négociations étant déjà liés aux traités internationaux qui les reconnaissent en tant que droits des individus. À mon avis, il aurait été préférable d’intituler le Chapitre III «principes et droits fondamentaux» 
			(28) 
			Dans
la version de janvier 2023 (Projet Zéro révisé), la définition de
l’objet et du but de la Convention (article 1) renvoyait à des «principes,
règles et droits». Le document du Comité ad hoc du Conseil de l’Europe
sur l’intelligence artificielle (CAHAI) de décembre 2021 sur les
«Éléments potentiels d’un cadre juridique sur l’intelligence artificielle,
fondés sur les normes du Conseil de l’Europe en matière de droits
de l’homme, de démocratie et d’État de droit» était favorable à une
solution alliant à la fois la mise en place de certains droits des
individus et de certaines obligations (voir le paragraphe 17).. Le fait qu’il s’agisse d’une Convention-cadre et non d’une Convention ne devrait pas faire de différence, car d’autres Conventions-cadres renvoient aux «droits» individuels dans les dispositions définissant les principes et obligations auxquels sont tenus les États Parties (voir la Convention-cadre pour la protection des minorités nationales). De manière plus générale, je pense que les rédacteurs ont manqué l’occasion d’inclure de nouveaux droits qui pourraient découler de droits déjà existants (les droits à la dignité humaine, à l’autonomie personnelle, au respect de la vie privée), adaptés au cadre de l’intelligence artificielle ou spécifiquement définis au regard de ce cadre. Lors de l’examen des technologies basées sur les interfaces cerveau-machine, l’Assemblée a ainsi appelé les États membres à envisager la création de nouveaux «neurodroits», tels que la liberté cognitive, la vie privée mentale, ou l’intégrité mentale 
			(29) 
			Voir également
l’article suivant (en anglais uniquement): <a href='https://www.sciencedirect.com/science/article/pii/S0168851023002208'>The
Council of Europe’s AI Convention (2023–2024): Promises and pitfalls
for health protection – ScienceDirect</a>. Le projet de rapport explicatif aurait également pu prévoir des dispositions spécifiques visant à optimiser les effets positifs de l’intelligence artificielle sur les processus démocratiques, par exemple, pour renforcer l’obligation des pouvoirs publics de rendre des comptes et faciliter l’action et la participation démocratiques 
			(30) 
			Voir la Résolution 2341 (2020) «La nécessité d’une gouvernance démocratique de l’intelligence
artificielle», paragraphe 14.3.. Bien que le texte évoque les «avantages» (Préambule) ou l’«effet positif» de l’intelligence artificielle (article 25.2 consacré à l’échange d’information), aucune obligation spécifique de mise à profit du potentiel de l’intelligence artificielle pour améliorer les processus démocratiques et la jouissance des droits humains n’est prévue.
39. Enfin, j’ai tendance à partager l’avis de la plupart des voix critiques susmentionnées qui se sont élevées à propos du champ d’application de la Convention-cadre (article 3), le point le plus controversé du projet convenu. J’ai présenté mes propres commentaires par écrit sur cette question tout au long du processus. J’ai notamment souligné le fait que l’Assemblée soutient par principe le champ d’application le plus large possible et rappelé qu’elle avait estimé dans ses rapports sur l’intelligence artificielle que les principes d’autoréglementation énoncés par les acteurs privés n’étaient pas suffisants. Un instrument juridiquement contraignant devrait reposer sur une approche exhaustive et s’adresser à toutes les parties prenantes, y compris aux acteurs privés. C’est pourquoi j’étais pleinement favorable à l’Option A de la version publiée en décembre 2023, qui n’excluait pas les acteurs privés de ce champ d’application, conformément aux résolutions précédentes de l’APCE et à la position du CAHAI 
			(31) 
			Document du CAHAI de
2021, paragraphes 11-12.. Cependant, étant donné que certains États participant aux négociations n’étaient pas prêts à accepter un champ d’application horizontal couvrant à la fois le secteur public et le secteur privé, différentes options (B et C) qui présentaient une approche différenciée pour le secteur privé (prévoyant l’obligation pour toutes les Parties d’adopter des mesures appropriées pour appliquer la Convention ou faire face progressivement aux risques en lien avec des entités privées) ont également été proposées. Dans la version envoyée en amont de la dernière réunion plénière, de nouvelles options qui prévoyaient des clauses d’exclusion pour les États désireux d’exclure les entités privées ont été ajoutées. Dans l’une des propositions, l’option d’exclusion était soumise à des conditions strictes et assortie d’une obligation de prendre les mesures appropriées pour faire face aux risques et impacts découlant des acteurs privés. Bien que l’option A ait eu ma préférence, une clause d’exclusion en ces termes aurait constitué une autre option acceptable, qui offrait la souplesse nécessaire à certains États (une minorité d’entre eux) pour exclure les acteurs privés par le biais d’une déclaration, tout en conservant la pleine applicabilité par défaut de la Convention aux acteurs privés.
40. La version actuelle (présentée aux tous derniers stades des négociations au sein du groupe de rédaction sans qu’elle ait donné lieu à des discussions approfondies en réunion plénière) est un système dans une certaine mesure «à la carte» qui permet à chaque Partie de spécifier dans une déclaration la manière dont elle entend faire face aux risques et aux impacts découlant de l’utilisation de l’intelligence artificielle par des acteurs privés. Cette solution est loin d’être idéale pour garantir la sécurité juridique et la prévisibilité des obligations imposées par la Convention aux acteurs privés. Je suis bien évidemment consciente des contraintes inhérentes aux derniers stades des négociations et de l’énorme pression pour dégager un compromis. Je pense que les contraintes de temps n’ont pas nécessairement joué en faveur de la qualité du résultat final obtenu. Le processus suivi n’a pas permis de mener une analyse et une consultation approfondies et en temps opportun de toutes les parties prenantes, y compris la société civile et les autres observateurs qui participent au Comité sur l’intelligence artificielle. Cette méthode semble être en contradiction avec les pratiques précédentes du Conseil de l’Europe en matière de rédaction de conventions.
41. Même si d’autres options et une consultation plus approfondie sur le champ d’application public/privé auraient été préférables à mes yeux, je ne proposerai pas de modification particulière à ce stade. Je comprends que, compte tenu des difficultés à parvenir à un accord final, il serait assez irréaliste d’espérer une réouverture des négociations mobilisant l’ensemble des parties sur ce point. Ceci étant dit, j’aimerais souligner que l’obligation de rapports établie dans le cadre du compromis sur l’article 24 doit être considérée comme un garde-fou positif et une compensation des champs d’application différenciés entre secteur public et secteur privé. En outre, j’espère que tous les États membres du Conseil de l’Europe qui ratifieront la Convention-cadre opteront pour la pleine application des Chapitres II à VI lorsqu’ils soumettront leur déclaration respective relative aux acteurs privés au titre de l’article 3. L’Assemblée devrait leur demander instamment d’aller dans ce sens, pour se conformer pleinement à la mission confiée par le Comité des Ministres d’élaborer une convention ayant une dimension transversale, aux travaux précédents du CAHAI, ainsi que, de façon plus générale, aux normes du Conseil de l’Europe, et notamment à la Recommandation CM/Rec(2016)3 du Comité des Ministres aux États membres «Droits de l’homme et entreprises» et à la jurisprudence de la Cour européenne des droits de l’homme relative aux obligations positives des États vis-à-vis des acteurs privés. La Conférence des Parties devrait également jouer son rôle et mener une évaluation appropriée de la manière dont les États membres se conforment à l’article 3.1.b, y compris les États qui décident de prendre «d’autres mesures appropriées» plutôt que d’appliquer la Convention aux activités du secteur privé. Je suis confiante dans le fait qu’une interprétation progressive de cette disposition par le mécanisme de suivi favorisera les avancées sur cette question au fil du temps, grâce aux exigences en matière de rapports et à la pression des pairs.
42. Je vais maintenant exposer une liste des améliorations et amendements possibles au projet de Convention-cadre. Ces propositions se limitent aux questions que je juge suffisamment importantes pour être inclues dans l’avis de l’Assemblée et qui me semblent raisonnables eu égard à la structure, à la nature et à l’objet général du projet de Convention-cadre.

1. Remplacer l’article 3.2 par le texte suivant:

«Chaque Partie peut restreindre l’application des dispositions de la présente Convention si les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont nécessaires à la protection de ses intérêts en matière de sécurité nationale ou de défense nationale et si ces activités sont menées de manière compatible avec le droit international applicable, y compris les obligations nées du droit international des droits de l’homme, et dans le respect de ses institutions et processus démocratiques.»

2. Supprimer l’article 3.4.

Alors que j’aurais été prête à accepter un compromis sur la question des entités publiques/privées qui prévoie une clause d’exclusion sous conditions, je ne peux en revanche pas accepter que la sécurité nationale soit totalement exclue du champ d’application de la Convention. Le Conseil de l’Europe ne dispose pas de compétences limitées dans le domaine de la sécurité nationale 
			(32) 
			Contrairement à l’UE,
où la sécurité nationale relève de la seule compétence de chaque
État membre en vertu de l’article 4.2 du TUE. La législation de
l’UE sur l’intelligence artificielle adoptée par le Parlement européen
exclut par conséquent l’utilisation de l’intelligence artificielle
exclusivement à des fins de sécurité nationale de son champ d’application
(voir <a href='https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_FR.html'>Textes
adoptés – Législation sur l’intelligence artificielle – Mercredi,
13 mars 2024 (europa.eu)</a>). Ce texte doit encore être approuvé par le Conseil
de l’UE.. Au contraire, les mesures prises par les autorités publiques pour assurer la protection de la sécurité nationale doivent être conformes à l’État de droit et à la Convention européenne des droits de l’homme. Si les autorités invoquent des raisons de sécurité nationale pour justifier l’utilisation d’outils d’intelligence artificielle, toute atteinte aux droits humains résultant de cette utilisation doit être conforme au droit, poursuivre un but légitime (la sécurité nationale, par exemple) et constituer une mesure nécessaire et proportionnée dans une société démocratique. Le Protocole d’amendement à la Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STCE no 223, Convention 108+) s’applique également au traitement des données à des fins de sécurité nationale, bien qu’un certain nombre d’exceptions et de restrictions soient prévues. Pour les États non-membres, le Pacte international relatif aux droits civils et politiques autorise lui aussi des restrictions pour des raisons de sécurité nationale. Une exemption globale me semble par conséquent complètement injustifiée et contraire aux obligations existantes en matière de droits humains 
			(33) 
			Bien
que le projet de rapport explicatif indique que les activités régulières
de maintien de l’ordre (pour la prévention ou la poursuite des crimes)
demeurent dans le champ d’application de la Convention-cadre si,
et dans la mesure où, les intérêts de sécurité nationale ne sont
pas en jeu, la distinction entre maintien de l’ordre et sécurité
nationale peut être parfois floue, comme nous avons pu le voir dans
de récentes affaires de surveillance ciblée par des logiciels espions.. Le fait que l’article 3.2 mentionne les obligations nées du droit international des droits humains en dehors de la Convention-cadre ou au respect des institutions démocratiques ne modifie en rien la nature de l’exemption, laquelle n’est d’ailleurs soumise à aucune obligation de rapports au titre de l’article 24 (contrairement à l’exemption en lien avec le secteur privé).

Les mêmes considérations valent pour l’exclusion globale de la défense nationale du champ d’application de la Convention (article 3.4). Si le Statut du Conseil de l’Europe prévoit que les questions relatives à la défense nationale ne sont pas de sa compétence, les atteintes aux droits humains causées par les activités militaires ne sortent pas du champ d’application des traités relatifs aux droits humains, notamment de la CEDH 
			(34) 
			Voir
la jurisprudence de la Cour européenne des droits de l’homme sur
les opérations militaires au sein de la juridiction (territoriale
ou extraterritoriale) des États membres.. L’Assemblée a de fait adopté un rapport sur l’utilisation de l’intelligence artificielle dans le domaine de la défense et de la force létale 
			(35) 
			Résolution 2485 (2023) «Émergence des systèmes d’armes létales autonomes (SALA)
et leur nécessaire appréhension par le droit européen des droits
humains».. L’utilisation de l’IA dans les conflits armés en cours soulève de graves questions au regard du droit international humanitaire et des droits de l’homme 
			(36) 
			Voir, par exemple,
l’utilisation dénoncée d’outils d’IA par l’armée israélienne à Gaza.
Le secrétaire général des Nations Unies, Antonio Guterres, a fait
référence à ces rapports: <a href='https://twitter.com/antonioguterres/status/1776408968711041434'>'I
am deeply troubled by reports that the Israeli military’s bombing
campaign includes AI as a tool in the identification of targets,
resulting in a high level of civilian casualties. AI should be used
as a force for good to benefit the world; not to contribute to waging
war on…' / X (twitter.com)</a>, 6 avril 2024.. Si la Convention-cadre s’applique principalement aux entités publiques, les exemptions relatives à l’utilisation de l’intelligence artificielle à des fins de sécurité et de défense nationales risquent d’en rétrécir encore davantage le champ d’application et de remettre en question la nature transversale de ce traité.

Je propose par conséquent de traiter la sécurité nationale et la défense nationale de la même manière et dans un seul article 
			(37) 
			Voir l’article 11 de
la Convention 108 +.. La disposition proposée se fonderait en partie sur l’Option C de la version du projet de Convention-cadre de décembre 2023, en y ajoutant «défense nationale» et «dans le respect de ses institutions et processus démocratiques» et en supprimant le qualificatif «essentiels» associé à l’expression «intérêts de sécurité nationale». En outre, le rapport explicatif pourrait ajouter des éclaircissements sur les critères établis par le droit international des droits humains pour les restrictions imposées pour des raisons de sécurité nationale (légalité, nécessité, proportionnalité).

3. Dans l’article 5.1, ajouter:

«aux élections libres et équitables» après «des institutions et processus démocratiques, y compris».

Il est important de citer expressément les «élections libres et équitables» parmi les principaux institutions et processus démocratiques susceptibles d’être menacés par l’intelligence artificielle. Elles sont déjà mentionnées dans le rapport explicatif ainsi que dans les Principes de Reykjavik pour la démocratie. La Cour a également reconnu que les droits garantis par l’article 3 du Protocole no 1 à la CEDH (droit à des élections libres) «sont cruciaux pour l’établissement et le maintien des fondements d’une véritable démocratie régie par la prééminence du droit» 
			(38) 
			Mugemangango c. Belgique [GC], no. 310/15,
§ 67, 10 juillet 2020..

4. Insérer un nouvel article dans le Chapitre III:

«Chaque Partie adopte ou maintient des mesures pour préserver la santé et l’environnement dans le cadre des activités menées au cours du cycle de vie des systèmes d’intelligence artificielle, conformément au droit international et interne applicable.»

Les versions précédentes du projet de Convention-cadre (de janvier et décembre 2023) incluaient une disposition spécifique relative à la préservation de la santé et de l’environnement. Bien que la version actuelle contienne quelques mentions de la santé et de l’environnement dans le Préambule (12) et des incidences environnementales à l’article 19 (consultation publique), une disposition spécifique sur la santé et l’environnement devrait en effet figurer expressément comme l’un des principes généraux énoncés au Chapitre III. Ce principe pourrait s’accompagner d’une mention du «droit interne et international applicable». L’Assemblée avait déjà recommandé en 2020 qu’une convention sur l’intelligence artificielle mette l’accent sur les incidences de l’intelligence artificielle sur le droit à la santé, en ayant à l’esprit le développement d’applications de santé et de dispositifs médicaux reposant sur l’intelligence artificielle 
			(39) 
			Recommandation 2185 (2020) «Intelligence artificielle et santé: défis médicaux,
juridiques et éthiques à venir», paragraphe 11.1.. Conformément au principe de responsabilité humaine, il était également souligné que les applications de santé reposant sur l’intelligence artificielle ne devraient pas remplacer complètement le jugement humain et que les décisions prises avec l’intelligence artificielle dans le cadre des soins de santé devraient toujours être validées par des professionnels de santé (ce que certains ont appelé le droit à un médecin humain). Le droit à la santé est déjà garanti par la Charte sociale européenne, le Pacte international relatif aux droits économiques, sociaux et culturels, la Charte des droits fondamentaux de l’Union européenne, et est indirectement protégé par la jurisprudence de la Cour européenne des droits de l’homme (au titre des articles 2, 3 et 8 de la CEDH) 
			(40) 
			Vavřička et autres c. République tchèque [GC],
8 avril 2021, § 282..

En ce qui concerne la protection de l’environnement, les industries et technologies d’intelligence artificielle ont en réalité un impact considérable sur les ressources naturelles et l’énergie. Bien qu’il ne soit pas encore pleinement reconnu comme un droit humain autonome au sein du Conseil de l’Europe, les chefs d’État et de gouvernement réunis à Reykjavik en 2023 ont noté la reconnaissance accrue du droit à un environnement propre, sain et durable dans les instruments régionaux et internationaux des droits humains, ainsi que dans les constitutions, législations et politiques nationales, et ont décidé de renforcer le travail du Conseil de l’Europe dans ce domaine (le «processus de Reykjavik») 
			(41) 
			La
Commission des questions sociales, de la santé et du développement
durable a récemment adopté un rapport dans lequel elle renouvelle
l’appel de l’Assemblée en faveur de l’élaboration d’un instrument
juridique reconnaissant un droit à un environnement sain. <a href='https://pace.coe.int/fr/news/9409/pace-committee-backs-council-of-europe-strategy-on-the-environment-and-recommends-drawing-up-a-binding-legal-instrument-recognising-a-right-to-a-healthy-environment'>Une
commission de l’APCE soutient une stratégie du Conseil de l’Europe
en matière d’environnement et recommande l’élaboration d’un instrument
juridique contraignant reconnaissant un droit à un environnement
sain (coe.int)</a>.. La Cour européenne des droits de l’homme a récemment déduit de l’article 8 de la Convention l’existence d’un droit pour les individus de bénéficier de la protection effective, par les autorités de l’État, contre les effets néfastes graves du changement climatique sur leur vie, leur santé, leur bien-être et leur qualité de vie 
			(42) 
			Verein KlimaSeniorinnen Schweiz et autres c.
Suisse (GC), arrêt du 9 avril 2024, § 519.. Elle avait déjà reconnu que cette disposition s’étende aux effets négatifs liés aux dommages ou risques de dommages environnementaux d’origines diverses. Les États membres enverraient un mauvais message s’ils omettaient toute mention de l’environnement (en tant que principe général) dans le premier traité international négocié après Reykjavik. La mention du «droit international et interne applicable» permettrait une reconnaissance progressive de ce principe/droit conforme aux évolutions normatives au niveau international et au sein du Conseil de l’Europe, qui traduit l’évolution de la volonté politique des États.

5. Ajouter dans le texte de l’article 14.3.c ou dans le rapport explicatif une mention:

des «autorités judiciaires» ou du «contrôle juridictionnel».

Le projet de rapport explicatif précise que les plaintes peuvent être déposées auprès du(des) mécanisme(s) de contrôle visé(s) à l’article 25. Une mention des «autorités judiciaires» ou du «contrôle juridictionnel» aurait également du sens, étant entendu qu’elle ne s’appliquerait que dans la mesure requise par les obligations de droit interne et international auxquelles est tenue chaque Partie (dans la logique du paragraphe 1 de l’article 14). S’il est vrai que l’article 13 de la CEDH n’exige pas en soi que l’instance nationale soit strictement une «autorité judiciaire», l’article 6 (qui prévoit le droit à un tribunal indépendant et impartial) et la jurisprudence établie par la Cour au titre de différents articles de la Convention peut imposer dans certaines situations et circonstances le droit à l’accès à un tribunal ou à un contrôle juridictionnel effectif. L’Assemblée a également recommandé, dans le cadre des systèmes de police et de justice pénale, que la mise en place, l’exploitation et l’utilisation des applications d’IA puissent faire l’objet d’un contrôle juridictionnel effectif 
			(43) 
			Voir
la Résolution 2342 (2020) «Justice par algorithme – Le rôle de l’intelligence
artificielle dans les systèmes de police et de justice pénale»,
9,13. Voir également le document du CAHAI de 2021 qui renvoie aux
«autorités judiciaires» dans le cadre du respect du droit à un recours
effectif devant une autorité nationale (paragraphe 40)..

6. Dans l’article 15.1, ajouter une référence au:

«contrôle humain»

Le Projet de rapport explicatif indique que des garanties procédurales effectives dans le cadre de cette disposition devraient, par exemple, inclure un contrôle humain, y compris un examen ex ante ou ex post de la décision par des êtres humains. Une mention du «contrôle humain» ou d’une «supervision humaine» apparaissait dans les versions publiques précédentes du texte de la Convention (de janvier et décembre 2023). En outre, l’Assemblée a toujours souligné l’importance du principe de responsabilité humaine pour les décisions dans ses rapports en lien avec l’intelligence artificielle, y compris dans le cadre des systèmes de police et de justice pénale, des soins de santé, du travail, des neurotechnologies et des systèmes d’armes létales autonomes (SALA). Le CAHAI a également estimé que le futur traité sur l’intelligence artificielle devait comprendre le nécessaire droit à un contrôle humain des décisions prises ou guidées par un système d’intelligence artificielle dans le secteur public, sauf si des motifs concurrents et légitimes impérieux l’excluent 
			(44) 
			Document de 2021, paragraphe 34.. La mention du «contrôle humain» est d’autant plus importante que l’article 15 s’applique uniquement «lorsqu’un système d’intelligence artificielle a un impact significatif sur la jouissance des droits de l’homme». Ce choix ne signifie toutefois pas que le contrôle humain n’est plus nécessaire lorsqu’un système d’intelligence artificielle ne produit que des effets sur les droits et intérêts individuels (sans pour autant atteindre le seuil correspondant à un impact significatif sur les droits humains).

7. Ajouter dans les articles 16.1, 16.2.a, 16.2.e et 16.3:

«et la préservation de l’environnement» après «l’État de droit».

Le Préambule du projet de Convention-cadre souligne que la Convention vise à encourager la prise en compte «des risques et des impacts plus larges liés à ces technologies, y compris, mais sans s’y limiter, la santé humaine et l’environnement, et les aspects socio-économiques y compris l’emploi et le travail». Dans son commentaire sur l’article 16, le projet de rapport explicatif souligne également que les évaluations des risques et des impacts «peuvent, le cas échéant, tenir dûment compte de la nécessité de préserver un environnement sain et durable». Par souci de cohérence, cet élément devrait également être mentionné dans le texte de l’article 16, notamment si la proposition d’inclure une disposition distincte sur la santé et l’environnement dans le Chapitre III (voir no 4 ci-dessus) n’est pas retenue. La durabilité environnementale devrait être l’un des critères examinés dans le cadre de l’évaluation des risques et des impacts des systèmes d’intelligence artificielle.

8. Remplacer l’article 16.4 par le texte suivant:

«Chaque Partie prend les mesures législatives ou autres qui se révèlent nécessaires pour mettre en place des mécanismes de moratoire ou d’interdiction ou des restrictions concernant certaines utilisations des systèmes d’intelligence artificielle lorsque ces utilisations sont considérées comme incompatibles avec le respect des droits de l’homme, le fonctionnement de la démocratie ou l’État de droit.»

Je comprends la déception exprimée par certaines organisations de la société civile et d’autres parties prenantes concernant l’absence de «lignes rouges» dans l’article 16 interdisant certaines applications d’intelligence artificielle qui présenteraient des niveaux de risque inacceptables 
			(45) 
			Par comparaison avec
la législation de l’UE sur l’intelligence artificielle qui interdit
par exemple l’utilisation de systèmes d’identification biométrique
à distance «en temps réel» dans des espaces accessibles au public
à des fins de maintien de l’ordre, sauf dans des situations définies
très spécifiquement. Voir également la position du Haut Commissaire
des Nations Unies aux droits de l’homme, qui s’est prononcé en faveur
d’une interdiction de l’utilisation d’outils de reconnaissance biométrique
et de systèmes d’IA qui cherchent à déduire les émotions des personnes,
d’outils individualisés de prédiction de la criminalité, etc. (<a href='https://www.ohchr.org/fr/open-letters/2023/11/turk-open-letter-european-union-highlights-issues-ai-act'>Une
lettre ouverte adressée à l’UE par Volker Türk souligne les problèmes
liés à la loi sur l’intelligence artificielle | OHCHR</a>).. Le projet de rapport explicatif ne fournit d’ailleurs pas de critères objectifs ni d’exemples spécifiques d’utilisations interdites. J’espère que cette lacune sera comblée à l’avenir par d’autres instruments juridiquement contraignants ou non contraignants préparés par le Comité sur l’intelligence artificielle 
			(46) 
			Le CAI a notamment
reçu pour mission d’élaborer une méthodologie non juridiquement
contraignante pour l’évaluation des risques et de l’impact des systèmes
d’intelligence artificielle du point de vue des droits humains,
de la démocratie et de l’État de droit (HUDERIA) en appui de la
mise en œuvre de la Convention-cadre (échéance: fin 2024).. La Conférence des Parties pourrait également contribuer à l’interprétation de cette disposition en fournissant des exemples d’utilisations interdites. Les mécanismes de contrôle nationaux prévus à l’article 26 pourraient aussi proposer des listes d’utilisations de l’intelligence artificielle interdites ou à haut risque ou être consultés pour l’élaboration de telles listes.

En tout état de cause, la version actuelle de l’article 16.4 ne me semble pas satisfaisante car elle laisse trop de latitude aux Parties à la Convention. Elle crée uniquement une obligation d’«évalue[r] la nécessité» d’un moratoire, d’une interdiction ou d’autres mesures et laisse à chaque Partie le soin de déterminer les utilisations qu’elle considère comme «incompatibles». Je proposerais par conséquent d’adopter une formulation plus percutante et plus claire (similaire à celle proposée dans les versions précédentes du projet): une obligation de «prendre les mesures législatives ou autres» afin de mettre en place «un moratoire, une interdiction ou des restrictions» lorsque ces utilisations «sont jugées incompatibles» avec les droits humains. Cela implique que les pratiques jugées incompatibles avec les droits humains, la démocratie et l’État de droit par les autorités nationales ou la Conférence des Parties, y compris sur la base d’autres instruments juridiques applicables, devraient être interdites, faire l’objet d’un moratoire ou être restreintes de façon appropriée.

9. Insérer un nouvel article dans le Chapitre VI:

«Chaque Partie prend les mesures appropriées pour assurer la protection des lanceurs d’alerte pour les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle qui pourraient avoir un effet préjudiciable sur les droits de l’homme, la démocratie et l’État de droit.»

Cette disposition était incluse dans les versions précédentes du projet de Convention-cadre. Aujourd’hui, il n’est plus fait mention des lanceurs d’alerte qu’une seule fois dans le commentaire sur l’article 8 (transparence et supervision) du projet de rapport explicatif. L’Assemblée s’est imposée comme une pionnière dans la protection des lanceurs d’alerte 
			(47) 
			Voir
la Résolution 2300 (2019) «Améliorer la protection des lanceurs d’alerte partout
en Europe». L’Assemblée a désigné un Rapporteur général pour la
protection des défenseurs des droits de l’homme et des lanceurs
d’alerte. et défendrait résolument l’inclusion d’une disposition spécifique sur cette question dans la Convention. Les lanceurs d’alerte pourraient en effet signaler tout acte répréhensible ou violation du droit par les acteurs publics et privés du domaine de l’intelligence artificielle et contribuer ainsi à l’application des principes généraux de transparence, d’obligation de rendre des comptes et de responsabilité, de fiabilité et d’innovation sûre. En outre, le CAHAI recommandait lui aussi en 2021 l’inclusion d’une disposition spécifique sur la protection des lanceurs d’alerte dans le futur instrument transversal juridiquement contraignant.

10. Ajouter la phrase suivante à la fin de l’article 26.2:

«Les fonctions et les pouvoirs de ces mécanismes devraient comprendre des pouvoirs d’enquête, le pouvoir de donner suite aux plaintes, l’établissement de rapports périodiques, la promotion, la sensibilisation du public et la consultation sur la mise en œuvre effective de la présente Convention.»

L’Assemblée estime que les mécanismes de contrôle indépendants et proactifs devraient disposer des pouvoirs nécessaires pour contrôler le respect de la Convention, et notamment de l’expertise technique et juridique requises pour être capables de suivre les nouvelles évolutions de l’intelligence artificielle et d’évaluer ses risques 
			(48) 
			Voir la Résolution 2341 (2020), paragraphe 15.. Ils devraient être en mesure de traiter les plaintes visées à l’article 14.2.c. Ils devraient également préparer des rapports périodiques qui pourraient être utilisés pour satisfaire à l’obligation de rapport à la Conférence des Parties prévue à l’article 24. Ces mécanismes devraient en outre être consultés sur toute proposition de loi ou d’autre mesure liée à la mise en œuvre de la Convention, par exemple sur tout projet d’adoption d’une interdiction ou d’un moratoire au titre de l’article 16.4. Si plusieurs mécanismes sont établis, ces fonctions pourraient être partagées entre ces mécanismes. Si cette proposition n’est pas retenue pour le texte de la Convention, il conviendrait de modifier tout au moins le projet de rapport explicatif afin de fournir des orientations plus détaillées quant au type de compétences prévues pour les mécanismes de contrôle nationaux.

11. Insérer un nouvel article dans le Chapitre VII, après l’article 26, intitulé «Participation parlementaire»:

«1. Les parlements nationaux sont invités à participer au suivi et à l’examen des mesures prises pour la mise en œuvre de la présente Convention.
2. L’Assemblée parlementaire du Conseil de l’Europe est invitée à faire le bilan, de manière régulière, de la mise en œuvre de la présente Convention.»

Étant donné que la Convention-cadre met spécifiquement l’accent sur les impacts de l’IA sur le fonctionnement de la démocratie, un rôle plus visible des parlements nationaux dans le suivi de la mise en œuvre des mesures prises pour appliquer la Convention serait pleinement justifié. L’Assemblée a déjà évoqué la nécessite de veiller à ce que «l’utilisation par les autorités publiques de technologies fondées sur l’IA soit soumise à un contrôle parlementaire et à un examen public adéquats» 
			(49) 
			Voir
la Résolution 2343 (2020) «Prévenir les discriminations résultant de l’utilisation
de l’intelligence artificielle», paragraphe 11.. L’APCE pourrait également être invitée à suivre régulièrement la mise en œuvre de la Convention par les États membres, compte tenu de l’importance du débat parlementaire sur l’impact de l’IA sur la démocratie, les droits de l’homme et l’État de droit, ainsi que du rôle et de l’engagement permanent de l’Assemblée sur ce sujet. La nouvelle disposition proposée au chapitre VII s’inspire d’une disposition de la Convention d’Istanbul sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique (article 70).

6. Conclusions

43. Le projet de Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit devrait être considéré comme une réalisation importante du Comité sur l’intelligence artificielle et du Conseil de l’Europe. Lorsqu’il aura été adopté par le Comité des Ministres, il deviendra le premier traité international sur l’intelligence artificielle. Le projet se fonde sur les normes du Conseil de l’Europe en matière de droits humains, de démocratie et d’État de droit, des normes communes aux États non européens qui ont participé aux négociations et qui signeront et ratifieront, nous l’espérons, la Convention-carde. La valeur ajoutée de cette convention résidera dans sa dimension mondiale, qui permettra de réunir des États des cinq continents qui souhaitent relever les défis mondiaux posés par l’intelligence artificielle dans le respect de ces valeurs et dans l’objectif d’en atténuer ou d’en limiter les risques. Différents systèmes et traditions juridiques et politiques ont par conséquent dû être pris en considération dans le cadre du processus de négociations et de rédaction. Il en résulte un projet de texte dont les dispositions souvent très génériques et abstraites devront faire l’objet d’éclaircissements et être développées à travers ses mécanismes d’interprétation et de suivi. J’espère également que la Convention-cadre sera complétée d’autres instruments juridiquement contraignants ou non contraignants portant sur l’utilisation de l’intelligence artificielle dans des secteurs spécifiques (par exemple, en lien avec le droit du travail et les droits sociaux, les droits culturels, ou des secteurs précis de l’administration publique, tels que les services répressifs, la justice, les soins de santé, les services de migration et l’administration électorale) et la méthodologie de gestion des risques et de l’impact.
44. L’aspect le plus problématique du projet de Convention-cadre réside dans son champ d’application restreint, qui prévoit un système «à la carte» pour les acteurs privés, ainsi que des exemptions complètes pour les activités réalisées à des fins de défense et de sécurité nationales. Le compromis final dégagé sur les secteurs public/privé ne devrait pas être utilisé par les États membres du Conseil de l’Europe pour moduler ou diluer l’application de la Convention aux acteurs privés opérant dans leur juridiction. L’Assemblée devrait appeler instamment tous les États membres à appliquer pleinement les dispositions de la Convention aux acteurs privés lorsqu’ils soumettront leur déclaration en vertu de l’article 3.1, conformément au mandat confié par le Comité des Ministres, à la position de l’Assemblée et de l’ancienne Commissaire aux droits de l’homme du Conseil de l’Europe, ainsi qu’aux exigences nées de la CEDH. La Conférence des Parties à la Convention-cadre devrait également être invitée à utiliser pleinement ses pouvoirs et le système de rapports pour évaluer la manière dont les Parties mettent en œuvre la Convention à l’égard des acteurs privés et fournir des éléments d’orientation sur son interprétation et son application effective.
45. Les commentaires critiques et propositions soulevés par les différentes parties prenantes méritent d’être pris en considération sérieusement. Je me suis appuyée sur certaines de ces propositions ou sur mes propositions de rédaction précédemment soumises au Comité sur l’intelligence artificielle pour formuler les propositions d’améliorations et de modifications du PCC. Toutes ces amendements visent à renforcer le projet en tenant dûment compte de la structure générale du texte convenu et de la logique qui le fonde. Certaines sont en lien avec les exemptions prévues pour la sécurité et la défense nationales (1, 2). D’autres visent à ajouter des mentions expresses ou à préciser le contenu de certaines dispositions au sujet des élections libres et équitables (3), de la santé et de l’environnement (4, 6), du contrôle juridictionnel (5), du contrôle humain (6), de l’interdiction de certaines utilisations de l’intelligence artificielle (8), des lanceurs d’alerte (9), des mécanismes de contrôle nationaux (10) et de la participation parlementaire (11). Toutes ces modifications transparaissent dans le projet d’Avis qui précède l’exposé des motifs.