Imprimer
Autres documents liés
A. Projet de
résolution
(open)
B. Projet de recommandation
(open)
Rapport | Doc. 16240 | 09 septembre 2025
L’intelligence artificielle et la migration
Commission des migrations, des réfugiés et des personnes déplacées
A. Projet de
résolution 
(open)1. L’Assemblée parlementaire reconnaît
le potentiel de transformation de l’intelligence artificielle (IA)
dans toute une série de secteurs, y compris la gestion des migrations.
Les systèmes d’IA – capables de prendre des décisions autonomes
et d’analyser des données complexes – sont de plus en plus utilisés
pour la surveillance des frontières, le traitement des visas, l’identification
biométrique, le traitement automatique du langage naturel et l’aide
à l’intégration. Ces applications promettent d’améliorer l’efficacité
et l’accessibilité des services pour les personnes migrantes, réfugiées
et demandeuses d’asile.
2. L’Assemblée souligne, toutefois, que l’innovation technologique
ne doit pas se faire au détriment des droits fondamentaux. Utilisée
à mauvais escient, l’IA peut renforcer les inégalités structurelles,
porter atteinte à la vie privée et compromettre la protection des
personnes demandeuses d’asile. Par conséquent, l’Assemblée réitère
son appel lancé à tous les États membres du Conseil de l’Europe
afin qu’ils signent et ratifient la Convention-cadre du Conseil
de l'Europe sur l'intelligence artificielle et les droits de l’homme,
la démocratie et l’État de droit (STCE n° 225, ci-après la «Convention-cadre
sur l’IA»), qui vise à garantir le développement et le déploiement
de l’IA dans le respect des normes en matière de droits humains
et interdit explicitement les applications de l’IA qui violent le
droit de demander l’asile, comme indiqué à l’article 5.
3. La modernisation au moyen de l’IA doit être mise en œuvre
de manière à limiter les risques et les effets néfastes pour les
personnes migrantes, réfugiées et demandeuses d’asile, notamment
en matière de discrimination et de reproduction de préjugés, et
à ne pas renforcer involontairement les stéréotypes ou les préjugés
existants. Les États devraient plutôt exploiter le potentiel de
l’IA afin de promouvoir un système de gestion des migrations inclusif,
sûr et humain.
4. Reconnaissant l’impact profond que l’IA peut avoir sur les
droits et libertés individuels, l’Assemblée souligne que l’IA devrait
soutenir – et non remplacer – la prise de décision humaine dans
les processus de migration et d’asile, même si, dans certains cas,
l’IA peut offrir plus de sécurité et d’efficacité que la seule prise de
décision humaine, en réduisant le risque d’erreur humaine. Tous
les outils d’IA doivent être transparents, responsables et soumis
à contrôle. Ils doivent également être déployés conformément aux
principaux instruments internationaux, notamment la Convention européenne
des droits de l’homme (STE n° 5, ci-après la «Convention»), la Convention
des Nations Unies (ONU) relative au statut des réfugiés telle que
modifiée par le protocole de 1967 («Convention relative au statut
des réfugiés») et la Charte des droits fondamentaux de l’Union européenne
(UE).
5. Observant que le règlement européen sur l’intelligence artificielle
classe les systèmes d’IA liés aux migrations parmi les technologies
à haut risque, l’Assemblée souligne la nécessité de garanties supplémentaires.
L’utilisation de l’IA dans la gestion des migrations, de l’asile
et du contrôle des frontières ne doit pas permettre de contourner
les obligations internationales, en particulier celles découlant
de la Convention relative au statut des réfugiés. Elle ne devrait
pas non plus être utilisée pour enfreindre de quelque manière que
ce soit le principe de non-refoulement ou pour refuser des voies
d’accès légales sûres et effectives, y compris le droit à la protection
internationale.
6. Il est donc important que les systèmes d’IA utilisés dans
les procédures de migration et d’asile fassent l’objet d’évaluations
d’impact sur les droits humains, la démocratie et l’État de droit
avant d’être déployés. L’Assemblée recommande d’utiliser la méthodologie
HUDERIA du Conseil de l’Europe pour identifier et atténuer les risques,
notamment les biais algorithmiques et les violations de la vie privée.
Le contrôle doit être intégré tout au long du cycle de vie des systèmes
d’IA, avec des évaluations indépendantes et une évaluation par l’humain
obligatoire.
7. L’Assemblée demande l’interdiction d’outils d’intelligence
artificielle tels que l’évaluation automatisée de la crédibilité,
la reconnaissance des émotions et le profilage des risques sur la
base de la nationalité ou de l’appartenance ethnique. Ces technologies,
qui ne reposent sur aucune base scientifique fiable, sont incompatibles
avec les articles 3 et 14 de la Convention.
8. Notant l’importance cruciale de la protection des données,
de la vie privée et de la sécurité dans l’utilisation de l’IA pour
les procédures d’asile, l’Assemblée souligne que les données sensibles,
y compris les données biométriques, les transcriptions d’entretien
et les informations sur le pays d’origine, doivent être cryptées
de bout en bout et ne doivent pas être partagées avec le pays d’origine
en cas de risque de persécution, conformément à la politique du
Haut-Commissariat des Nations Unies pour les réfugiés (HCR) en matière
de protection des données.
9. Les applications de l’intelligence artificielle dans la gestion
des migrations doivent donc trouver un équilibre entre les gains
d’efficacité et la protection rigoureuse des droits humains à toutes
les étapes du parcours migratoire. L’utilisation de l’IA dans le
domaine des migrations soulève des questions spécifiques qui doivent
être abordées pour chaque étape de la procédure, depuis les activités
préparatoires au départ jusqu’au transit, à l’arrivée, au séjour,
à la circulation, au retour, qu’il soit temporaire ou définitif,
et à la (ré)intégration durable. Il convient en priorité d’instaurer
des garanties contre les biais, d’assurer une supervision humaine
et de préserver la dignité des personnes migrantes, réfugiées et
demandeuses d’asile, comme suit.
10. Avant le départ, les outils d’IA utilisés pour l’examen des
demandes de visas et d’asile devraient faire l’objet d’une étude
d’impact sur les droits humains avant d’être déployés. Les systèmes
tels que le dispositif système européen d’information et d’autorisation
de voyage (ETIAS) devraient permettre d’évaluer manuellement les
cas signalés comme présentant un risque élevé. Tous les outils de
filtrage doivent être transparents et ne pas produire d’effet discriminatoire.
Les agents conversationnels (chatbots) alimentés par l’IA peuvent
fournir des informations multilingues en temps réel aux personnes
migrantes, réfugiées et demandeuses d’asile, à condition d’indiquer
leur nature automatisée et de respecter les normes éthiques pour éviter
de diffuser de fausses informations.
11. En ce qui concerne les migrations économiques par les voies
appropriées, les outils d’IA peuvent être utilisés pour rationaliser,
de manière équitable et accessible, la procédure de demande de permis
de travail et de séjour. L’IA peut également aider à détecter les
pratiques de recrutement abusives en identifiant les employeurs
prédateurs et en alertant les autorités compétentes. Les outils
d’IA qui permettent de vérifier les visas devraient faire l’objet
d’un audit des biais et fournir des résultats transparents pouvant
être contestés.
12. L’Assemblée encourage l’utilisation éthique de l’IA dans la
prévision des migrations climatiques par l’analyse des données environnementales
et socio-économiques afin d’améliorer la planification humanitaire conformément
à sa Résolution 2401 (2021) « Climat et migrations ». Les outils pilotés par l’IA,
notamment ceux qui sont développés par l’Organisation internationale
pour les migrations (OIM), peuvent fournir aux responsables politiques
une image prédictive plus claire des déplacements liés aux changements
climatiques. Ces modèles prédictifs peuvent servir de base à des
mesures de soutien proactives.
13. L’IA peut également être utilisée pour identifier et déstabiliser
les réseaux de trafic illicite de personnes migrantes grâce à une
analyse responsable des données.
14. Pendant le transit, l’Assemblée souligne la nécessité d’une
réglementation stricte des technologies de surveillance pilotées
par l’IA. La prévision policière et l’identification biométrique
doivent être limitées à un usage strictement nécessaire et proportionné,
et toutes les données biométriques doivent être cryptées et réservées
au personnel autorisé. La Convention-cadre du Conseil de l’Europe
sur l’IA encadre la catégorisation biométrique en la réservant aux
situations où elle est strictement nécessaire et proportionnée. Les
systèmes d’IA, tels que le Système européen de surveillance des
frontières (EUROSUR), qui surveillent les mouvements aux frontières
doivent se conformer à la politique de protection des données élaborée
par l’OIM en 2023.
15. Les technologies de surveillance des personnes migrantes,
réfugiées et demandeuses d’asile en transit doivent être réglementées
en vue de protéger leurs droits, et la surveillance de masse par
l’IA, comme les drones et la reconnaissance faciale, devrait être
interdite. L’IA peut être utilisée de manière positive afin de favoriser
la mise en place des couloirs humanitaires en utilisant la cartographie
des conflits pour identifier des itinéraires de transit plus sûrs.
16. L’Assemblée reconnaît le rôle essentiel de l’eu-LISA (l’Agence
de l’Union européenne pour la gestion opérationnelle des systèmes
d’information à grande échelle au sein de l’espace de liberté, de
sécurité et de justice) et d’autres organes de l’Union européenne
dans la gestion des bases de données relatives aux migrations, telles
que le Système d’information Schengen (SIS), le Système d’information
sur les visas (VIS) et Eurodac (la base de données biométriques
centralisée de l'Union européenne). La coopération entre les États
membres de l’Union européenne et les États membres du Conseil de
l’Europe qui n’en font pas partie est importante pour garantir des
normes cohérentes en matière de protection des données et le respect
des obligations humanitaires.
17. L’Assemblée exprime une nouvelle fois sa profonde préoccupation
et sa tristesse face aux décès de personnes migrantes, réfugiées
et demandeuses d’asile en mer. Elle appelle les États membres à
utiliser les technologies de l’IA pour renforcer les capacités de
recherche et de sauvetage, et à respecter la dignité des personnes
décédées, conformément aux principes énoncés dans sa Résolution 2569 (2024) « Personnes migrantes, réfugiées et demandeuses d’asile
disparues – Un appel à clarifier leur sort » et sa Résolution 2612 (2025) « Sauver la vie des personnes migrantes en mer et protéger
leurs droits humains ».
18. À l’arrivée, l’IA peut être utilisée pour soutenir des procédures
d’asile individualisées, équitables et conformes aux droits, sans
jamais remplacer le rôle des travailleuses et travailleurs sociaux
dans les échanges et la prise de décisions. Les documents générés
par l’IA devraient être accessibles dans les langues des personnes
demandeuses et en langage clair.
19. Les systèmes biométriques et les outils de reconnaissance
linguistique devraient faire l’objet d’audits de biais réguliers
afin de garantir un traitement équitable, tandis que les outils
de reconnaissance faciale, tels que ceux utilisés dans les tunnels
frontaliers intelligents, devraient faire l’objet de tests démographiques
afin d’assurer le respect des exigences en matière de non-discrimination
et respecter les normes d’audit de l’Union européenne.
20. Les systèmes d’IA utilisés dans le traitement des demandes
d’asile devraient être vérifiés et corrigés en ce qui concerne les
ensembles de données biaisées afin d’éliminer les variables discriminatoires,
et les éléments de preuve générés par l’IA doivent être vérifiés
par des humains, avec possibilité de contrôle judiciaire. L’utilisation
d’outils tels que la reconnaissance des émotions ou les «détecteurs
de mensonges» ne devrait pas être incluse, et les outils prédictifs
évaluant la probabilité de fuite ne doivent pas être utilisés pour justifier
la détention, en particulier celle des mineurs. Des évaluations
d’impact telles que la méthodologie HUDERIA devraient être réalisées
avant le déploiement de nouveaux systèmes.
21. Pendant le séjour, conformément à la Résolution 2502 (2023) « Intégration des migrants et des réfugiés: des avantages
pour toutes les parties prenantes » de l’Assemblée, les politiques
d’intégration inclusives peuvent être soutenues par une utilisation
éthique de l’IA, qui peut jouer un rôle majeur en accélérant l’autonomie
des personnes migrantes, réfugiées et demandeuses d’asile et en
renforçant la résilience des communautés hôtes. Des outils peuvent
être développés en collaboration avec les communautés de personnes
réfugiées et les ONG et mis à disposition hors ligne (par exemple,
les lignes d'assistance téléphonique sans accès à internet) et par
le biais d’interfaces vocales afin de réduire les fractures numériques.
22. Les outils de recherche d’emploi pilotés par l’IA devraient
donner la priorité à des critères éthiques tels que l’unité familiale
et l’adéquation culturelle. Il est essentiel que leur conception
tienne compte de la dimension de genre afin d’éviter de renforcer
la ségrégation sur le marché du travail qui oriente les femmes vers
les secteurs à bas salaires. Des mécanismes de retour d’information
continus devraient permettre de remédier aux erreurs de placement.
Les audits annuels des systèmes d’IA utilisés pour l’attribution
de prestations sociales ou d’un logement sont primordiaux pour détecter
et corriger les biais. L’analyse prédictive peut soutenir une planification
urbaine équitable, en aidant à prévenir la ségrégation et à favoriser
l’innovation et la sécurité dans les différentes communautés.
23. L’Assemblée appelle à créer des organes de contrôle indépendants
tels que le Conseil de l’intelligence artificielle de l’Union Européenne,
qui seraient composés de représentant·es de la société civile et
d’expert·es juridiques et technologiques, et seraient chargés de
suivre la mise en œuvre des systèmes d’IA dans la gestion des migrations,
de l’asile et des contrôles aux frontières, sur la base des lignes
directrices du HCR, de la Convention-cadre du Conseil de l’Europe
sur l’IA et des règlements pertinents de l’Union européenne.
24. De solides mécanismes de réparation et d’indemnisation doivent
également être mis en place afin de permettre la contestation des
éléments générés par l’IA par des voies juridiques rapides. L’aide
juridique devrait être étendue aux recours liés aux systèmes algorithmiques.
25. Pour les étapes de la migration circulaire et du retour, les
chatbots pilotés par l’IA utilisés dans les programmes d’aide au
retour devraient respecter les normes d’équité, éviter les techniques
d’incitation et fournir des informations impartiales. Les personnes
migrantes, réfugiées et demandeuses d’asile devraient conserver
le contrôle de leurs données, pouvoir supprimer ou transférer des
informations lorsqu’elles quittent les programmes et bénéficier
d’une garantie contre le partage d’informations biométriques avec
le pays d’origine. Le partage des données biométriques avec les
pays d’origine doit être interdit s’il existe un risque de persécution.
Les évaluations des conditions environnementales fondées sur l’IA
peuvent aider à déterminer la sécurité des destinations de retour.
26. La réintégration durable nécessite un suivi rigoureux après
le retour. Les États devraient mettre en œuvre des évaluations d’impact
fondées sur la communauté et des outils d’intelligence artificielle
éthiques pour suivre les résultats en matière d’emploi, de logement
et de bien-être. Les assistants IA accessibles hors ligne doivent
aider les personnes migrantes à s’orienter dans les services de
réintégration.
27. Conformément à sa Résolution 2343 (2020) « Prévenir les discriminations résultant de l’utilisation
de l’intelligence artificielle », l’Assemblée souligne l’importance
d’adopter des mesures spécifiques visant à prévenir la discrimination
et les effets négatifs qui touchent de manière disproportionnée
certains groupes tels que les femmes, les personnes appartenant
à des minorités, ainsi que les personnes les plus vulnérables et marginalisées,
notamment les personnes migrantes, réfugiées et demandeuses d’asile.
28. Ce risque de discrimination provoquée par l’IA devrait être
pris en compte dès la phase de conception, qui pourrait bénéficier
de la participation des organisations de la société civile représentant
les personnes migrantes, réfugiées et demandeuses d’asile pour accroître
la confiance et la fiabilité. La sensibilisation et la formation
des agent·es des services d’asile, des ONG et des développeurs et
développeuses d’IA renforceront le déploiement éthique de l’IA.
29. Les États membres doivent prévoir des garanties contre l’utilisation
abusive de l’IA à des fins de désinformation, de manipulation ou
de cyberattaques exploitant les vulnérabilités en matière de migration.
Les menaces géopolitiques, y compris celles liées à l’agression
menée par la Fédération de Russie contre l’Ukraine, exigent une
vigilance et une résilience accrues dans les cadres de politique
migratoire afin d’éviter toute répercussion négative sur la protection
offerte.
30. En ce qui concerne le climat général dans l’opinion autour
des questions migratoires, les États devraient veiller à ce que
les chatbots alimentés par l’IA soient utilisés de manière éthique
pour fournir des informations accessibles, précises et multilingues
sur la migration, et à ce que ces outils ne soient pas utilisés
pour manipuler les discours ou les décisions en matière d’asile.
Là encore, il convient de privilégier la conception participative
dans le développement de ces chatbots.
31. Pour soutenir les mesures susmentionnées, il est essentiel
de sensibiliser et de renforcer les capacités de toutes les parties
prenantes publiques et privées – en particulier les autorités et
les responsables publics, les développeurs, les petites et moyennes
entreprises et les jeunes entreprises d’IA – en matière d’utilisation de
l’IA dans la gestion des migrations, conformément aux cadres réglementaires
pertinents et à leur mise en œuvre pratique.
B. Projet de recommandation 
(open)1. Notant les progrès rapides
de l’intelligence artificielle (IA) dans la gestion des migrations
comme dans d’autres domaines, l’Assemblée parlementaire recommande
au Comité des Ministres d’encourager la signature, la ratification
et la mise en œuvre de la Convention-cadre du Conseil de l'Europe
sur l'intelligence artificielle et les droits de l’homme, la démocratie
et l’État de droit (STCE n° 225, ci-après la «Convention-cadre sur
l’IA») par tous les États membres et non membres.
2. À la lumière de la Résolution … (2025) « L’intelligence artificielle
et la migration », l’Assemblée exhorte le Comité des Ministres à
élaborer une recommandation orientant les États membres dans l’utilisation
de l’IA pour la gestion des migrations, qui sera suivie de mesures
concrètes donnant la priorité à la transparence, à la responsabilité
et à la protection des droits humains.
3. L’Assemblée exhorte le Comité des Ministres à veiller à ce
que les instruments politiques liés aux migrations intègrent des
garanties solides et applicables et demande l’élaboration d’un code
de bonnes pratiques sur l’utilisation de l’IA dans la gestion des
migrations et dans les procédures touchant aux droits des personnes
migrantes, réfugiées et demandeuses d’asile, qui pourrait faire
partie de la recommandation susmentionnée.
4. L’Assemblée recommande au Comité des Ministres de prévoir
– au sein du Conseil de l’Europe – des programmes de sensibilisation
aux implications de l'IA dans la gestion des migrations destinés
aux institutions de médiation et aux organismes de promotion de
l’égalité. Ces activités devraient renforcer leur capacité à protéger
les droits humains. Des actions similaires de sensibilisation et
de formation devraient être mises en œuvre pour les agent·es de
l’immigration, les travailleuses et travailleurs sociaux et les
ONG ; le programme HELP (Programme européen de formation aux droits
de l'homme pour les professionnels du droit) du Conseil de l’Europe
et le programme européen pour une Europe numérique peuvent être
des instruments utiles à cet égard.
5. L’Assemblée recommande de renforcer la coopération avec l’ensemble
des organes et agences compétents de l’Union européenne et des Nations
Unies sur l’application de l’IA dans la gestion des migrations. Elle
souligne également l’importance de la coopération entre le Conseil
de l’Europe et la société civile sur cette question, particulièrement
utile pour l’élaboration de tout instrument à venir.
C. Exposé des motifs par M. Petri Honkonen, rapporteur
(open)1. Introduction
1. Le déploiement de technologies
de l’information avancées – en particulier l’intelligence artificielle
(IA) – dans les contrôles d’identité, les contrôles aux frontières,
le traitement des visas et les demandes d’asile transforme la gestion
des migrations dans toute l’Europe. Ces systèmes s’appuient de plus
en plus sur de vastes ensembles de données, intégrant souvent des
informations collectées auprès de groupes ou de pays spécifiques,
et des processus décisionnels façonnés par des modèles algorithmiques.
Si l’IA permet de rationaliser les procédures administratives, son
application dans le domaine sensible et à haut risque de l’immigration
soulève de sérieuses préoccupations en matière de transparence,
de responsabilité et de droits fondamentaux. La possibilité d’algorithmes
biaisés, conçus pour donner la priorité à certaines données par rapport
à d’autres, souligne la nécessité d’un contrôle rigoureux et de
solides garanties.
2. L’IA offre l’occasion de moderniser la gestion des migrations
et d’en améliorer l’efficacité. Cependant, tout progrès technologique
doit s’accompagner d’un engagement ferme en faveur des droits humains
et de l’État de droit. Les systèmes d’IA qui présentent un risque
élevé de violations des droits humains, tels que la notation sociale,
le profilage discriminatoire ou la génération de contenus illicites
ou préjudiciables, devraient être interdits. La gouvernance des
migrations doit veiller à ce que ces outils n’exacerbent pas les
inégalités existantes et ne portent pas atteinte aux droits individuels.
3. Reconnaissant l’urgence et la complexité de ces questions,
l’Assemblée parlementaire a adopté une approche proactive. La commission
des migrations, des réfugiés et des personnes déplacées m’a nommé rapporteur
suite au renvoi à la commission d’une proposition de résolution
intitulée « L’intelligence artificielle et la migration » (Doc. 15952) le 29 mai 2024. L’élaboration du présent rapport a
donné lieu à des consultations approfondies avec des expert·es universitaires,
des représentant·es de la société civile et des agent·es d’organisations
internationales
.
Il s’agit du premier rapport de l’Assemblée sur cette question.

4. Le terme « intelligence artificielle » désigne les « systèmes
qui font preuve d’un comportement intelligent en analysant leur
environnement et en prenant des mesures – avec un certain degré
d’autonomie – pour atteindre des objectifs spécifiques »
. Nous pouvons donc considérer que
l’IA est un système capable d’effectuer des tâches que nous considérerions
habituellement comme un comportement humain intelligent. Aujourd’hui,
les applications de l’IA consistent généralement à reconnaître des
modèles, à faire des déductions, à prendre des décisions au cas
par cas et à engager une conversation. La quantité de données disponibles
pour l’apprentissage des modèles d’IA est plus importante que jamais
et continue de croître de manière substantielle. Parallèlement,
la démocratisation croissante des algorithmes et des plateformes
a créé un écosystème dans lequel les solutions d’IA peuvent être
testées et mises en œuvre plus facilement, par un plus grand nombre
de personnes et d’organisations
.


5. Ces dernières années, les gouvernements, notamment par l’intermédiaire
d’organisations internationales, mettent en place des réglementations
sur l’IA afin d’éviter les violations des droits humains tout en
garantissant des conditions favorables à l’innovation. Le Conseil
de l’Europe a adopté la Convention-cadre sur l'intelligence artificielle
et les droits de l’homme, la démocratie et l’État de droit (STCE
n° 225, ci-après la «Convention-cadre sur l’IA»)
. De plus, la récente législation
de l’Union européenne (UE) dans ce domaine, notamment le règlement
européen sur l’intelligence artificielle et le règlement européen
sur les services numériques, aura une incidence sur l’utilisation
de l’IA dans la gestion des migrations
. Nous devrions également prendre
en considération la recommandation de l’Organisation des Nations
Unies pour l'Éducation, la Science et la Culture (UNESCO) sur l’éthique
de l’intelligence artificielle
, ainsi que les principes de l’Organisation
de coopération et de développement économiques (OCDE) en matière
d’IA
.




6. Dans mon pays, la Finlande, l’impact de l’IA sur les droits
humains en général, et sur les droits des personnes migrantes, réfugiées
et déplacées en particulier, a été récemment au centre des discussions
lors du séminaire qui s’est tenu à Helsinki le 27 novembre 2024.
La ministre finlandaise des Affaires étrangères, Mme Elina Valtonen,
a souligné l’importance de la Convention-cadre du Conseil de l’Europe
sur l’IA qu’elle considère comme une étape importante pour une gouvernance
responsable de l’IA et pour le renforcement de la protection des
droits individuels à l’ère numérique. Elle a précisé qu’une réglementation
claire sur l’IA favoriserait l’innovation, affirmant que l’intelligence
artificielle éthique n’était pas un obstacle au développement, mais
le fondement d’une innovation durable et à long terme. Organisé
à l’initiative de Mme Miapetra Kumpula-Natri,
présidente de la délégation finlandaise auprès de l’Assemblée, le
séminaire a offert un espace d’échange entre expert·es et parlementaires
au sujet des répercussions de l’IA sur les droits humains, la démocratie
et l’État de droit. M. Tarmo Jukarainen, du Service finlandais de
l’immigration (FIS), y a présenté les avancées en matière d’automatisation
des procédures migratoires en Finlande, indiquant que l’IA serait
déployée progressivement après des évaluations des risques approfondies.
L’événement a également mis en évidence le rôle essentiel de l’éducation,
qui permet aux générations futures d’acquérir les compétences nécessaires
pour concevoir et utiliser les outils d’IA de manière responsable.
7. Dans le domaine de la gestion des migrations, le champ d’application
de l’intelligence artificielle est très large. Les systèmes d’IA
sont utilisés pour l’authentification des documents, le traitement
des langues (par exemple, transcription de la parole en texte, traduction
automatique), la reconnaissance vocale, l’identification des dialectes,
la reconnaissance d’images, l’analyse avancée et l’apprentissage
approfondi, l’automatisation des processus, la communication d’informations
par le biais de chatbots, la recherche d’informations sur les pays
d’origine, la prévision des tendances en matière de migration et
d’asile, et la prestation de services de santé pour les personnes
migrantes, réfugiées et demandeuses d’asile par le biais de la télémédecine.
8. Étant donné que l’immigration en Europe est largement influencée
par la législation de l’UE, ce rapport tient compte de l’évolution
de la situation dans l’UE. Le règlement européen sur l’IA indique
que « les systèmes d’IA utilisés dans les domaines de la migration,
de l’asile et de la gestion des contrôles aux frontières touchent des
personnes qui se trouvent souvent dans une situation particulièrement
vulnérable et qui sont tributaires du résultat des actions des autorités
publiques compétentes. L’exactitude, la nature non discriminatoire
et la transparence des systèmes d’IA utilisés dans ces contextes
sont donc particulièrement importantes pour garantir le respect
des droits fondamentaux des personnes concernées, en particulier
leurs droits à la libre circulation, à la non-discrimination, à la
protection de la vie privée et des données à caractère personnel,
à une protection internationale et à une bonne administration ».
9. Ce règlement indique également « qu’il convient donc de classer
comme étant à haut risque, dans la mesure où leur utilisation est
autorisée par le droit de l’Union et le droit national applicables,
les systèmes d’IA destinés à être utilisés par les autorités publiques
compétentes ou pour leur compte ou par les institutions, organes
et organismes de l’Union chargés de tâches dans les domaines de
la migration, de l’asile et de la gestion des contrôles aux frontières »
.

10. En outre, «les systèmes d’IA ne devraient en aucun cas être
utilisés par les États membres ou les institutions, organes ou organismes
de l’Union dans les domaines de la migration, de l’asile et de la
gestion des contrôles aux frontières comme moyen de contourner les
obligations internationales qui leur incombent en vertu de la convention
des Nations unies relative au statut des réfugiés, signée à Genève
le 28 juillet 1951, telle que modifiée par le protocole du 31 janvier 1967.
Ils ne devraient pas non plus être utilisés pour enfreindre de quelque
manière que ce soit le principe de non-refoulement ou pour refuser
des voies d’accès légales sûres et effectives au territoire de l’Union,
y compris le droit à la protection internationale»
.

11. Enfin, « les systèmes d’IA à haut risque devraient être conçus
et développés de manière à ce que des personnes physiques puissent
superviser leur fonctionnement et veiller à ce qu’ils sont utilisés
comme prévu et à ce que leurs incidences sont prises en compte tout
au long de leur cycle de vie. À cette fin, des mesures appropriées
de contrôle humain devraient être établies par le fournisseur du
système avant sa mise sur le marché ou sa mise en service. En particulier,
le cas échéant, de telles mesures devraient garantir que le système
est soumis à des contraintes opérationnelles intégrées qui ne peuvent
pas être ignorées par le système lui-même, que le système répond
aux ordres de l’opérateur humain et que les personnes physiques auxquelles
le contrôle humain a été confié ont les compétences, la formation
et l’autorité nécessaires pour s’acquitter de ce rôle »
.

2. Les risques associés à l’utilisation de l’IA dans la gestion des migrations
12. Le déploiement rapide de l’intelligence
artificielle aux fins de gestion des migrations présente des risques
importants pour les droits humains et les libertés fondamentales.
Le manque de transparence, la complexité des algorithmes et la compréhension
limitée du public – en particulier parmi les populations migrantes
vulnérables – réduisent la capacité à remettre en question ou à
contester les décisions fondées sur l’IA. Compte tenu de cette opacité,
il est indispensable de disposer de mécanismes solides permettant
d’obliger les responsables à rendre des comptes.
13. Selon l’Agence des droits fondamentaux de l’UE, l’utilisation
de l’IA peut avoir des effets sur des droits essentiels comme la
dignité humaine, la non discrimination, l’accès à la justice et
la bonne administration. Des garanties effectives et des mécanismes
de recours accessibles doivent être mis en place pour que les personnes
lésées par des décisions de l’IA puissent les contester et savoir
qui en porte la responsabilité
.

14. Avant de déployer l’IA dans le cadre des procédures d’asile,
les États devraient réaliser des évaluations d’impact sur les droits
humains, la démocratie et l’État de droit, en utilisant des outils
comme la méthodologie HUDERIA du Conseil de l’Europe pour réduire
des risques comme les biais, les atteintes à la vie privée et la discrimination
. En outre, le règlement sur l’IA
de l’UE exige que les organismes publics et les prestataires de services
privés évaluent l’impact sur les droits fondamentaux avant d’utiliser
des systèmes d’IA à haut risque, bien que l’application de ces dispositions
reste limitée
. Les risques en matière de droits
humains, notamment en ce qui concerne la vie privée et la discrimination,
ne sont pas suffisamment pris en compte à ce stade.


15. Vu l’importance d’évaluer les technologies d’IA, les organismes
de promotion de l’égalité doivent être dotés des ressources nécessaires,
conformément à l’article 77 du règlement européen sur l’IA, afin
de détecter les biais, de surveiller les usages détournés ou secondaires
des données, et de prévenir les effets négatifs que de telles pratiques
pourraient avoir sur le traitement des demandes d’asile
.

16. Le Groupe de rédaction sur les droits humains et l’intelligence
artificielle (CDDH-IA) du Conseil de l’Europe avertit que l’IA peut
entraîner une discrimination directe et intersectionnelle, notamment
lors de l’utilisation de techniques biométriques comme la reconnaissance
faciale. Ces systèmes fonctionnent souvent comme des «boîtes noires»
en raison de la protection du secret commercial, ce qui masque leurs
erreurs et rend difficile d’établir les responsabilités. La chercheuse
A. Beduschi met en garde contre le fait qu’une confiance aveugle
dans l’IA pourrait entraîner de graves violations des droits humains,
telles que des erreurs d’identification, des détentions injustifiées
ou des refoulements vers des pays où les personnes seraient exposées
à des risques de mauvais traitements
.

17. En raison de leurs algorithmes, les technologies d’IA ne sont
pas fiables à 100 %. À titre d’exemple, on peut citer le projet
iBorder Control, financé par l’UE, qui utilise l’analyse biométrique
et comportementale et qui est susceptible de donner lieu à des évaluations
erronées, ainsi que le logiciel allemand de translittération TraLitA,
qui a des difficultés avec les dialectes arabes non levantins, ce
qui peut désavantager les candidat·es qui parlent ces dialectes
. Ces cas illustrent le danger des
erreurs de modélisation algorithmique et des biais de données
.


18. En outre, les systèmes d’IA peuvent révéler involontairement
des caractéristiques protégées, lors de l’analyse de la parole,
des traits du visage ou de données numériques, ce qui accroît le
risque de profilage discriminatoire. À cause de ces abus, des personnes
peuvent se voir refuser un visa ou l’entrée sur le territoire, ce
qui peut porter atteinte au droit à la liberté de circulation prévu
à l’article 2 du Protocole n° 4 à la Convention européenne des droits
de l’homme. Or, l’exercice de ce droit ne peut être restreint qu’à
des fins légitimes et de manière proportionnée à l’intérêt public
.
![(20)
De
Tommaso c. Italie [GC], n° 43395/09, 23 février 2017,
§ 104; Pagerie c. France,
n° 24203/16, 12 janvier 2023, § 171; Battista
c. Italie, n° 43978/09, 2 décembre 2014, § 37; Khlyustov c. Russie, n° 28975/05,
11 juillet 2013, § 64; Labita c. Italie [GC],
n° 26772/95, 6 avril 2000, §§ 194-195.](/nw/images/icon_footnoteCall.png)
19. La fracture numérique reste une préoccupation majeure, nombre
de personnes migrantes, réfugiées et demandeuses d’asile manquant
des compétences nécessaires pour comprendre et utiliser les systèmes
d’IA. Faute d’être conçus avec soin, ces systèmes risquent de renforcer
les inégalités structurelles au lieu de les réduire. Afin de contrebalancer
les préjugés humains et ceux de l’IA, il faut que les agent·es de
première ligne reçoivent une formation spécialisée et que le développement
et le déploiement de l’IA fassent l’objet d’une surveillance rigoureuse.
20. Enfin, le rythme des progrès technologiques, combiné à la
dépendance croissante à l’égard des outils numériques, crée de nouvelles
vulnérabilités, qui peuvent être exploitées par des acteurs hybrides.
Ainsi que le souligne FRONTEX dans l’édition 2024 de son rapport
d’analyse stratégique des risques, des technologies comme le système
d’entrée/sortie (EES) et le système européen d’information et d’autorisation
de voyage (ETIAS) renforcent la gestion intégrée des frontières
européennes, mais exposent aussi des infrastructures critiques aux
cyberattaques et aux menaces hybrides.
21. Le recours à des chaînes d’approvisionnement complexes, opaques
et souvent peu régulées exacerbe encore ces risques. En outre, les
nouvelles technologies – notamment les drones et les applications
de cartographie – permettent d’employer de nouvelles méthodes de
facilitation des migrations. Dans un environnement numérique hyperconnecté,
la propagation de la désinformation via les médias sociaux sape
la confiance du public, influence les processus démocratiques et
amplifie l’impact sociétal des migrations, ce qui rend de plus en
plus difficile la distinction entre les informations factuelles
et les récits manipulés
. FRONTEX met en garde contre certaines
situations où la technologie est utilisée pour dissocier physiquement
les passeurs de leurs clients, ce qui leur permet d’opérer en dehors
du champ d’action des services répressifs de l’UE. Cette dissociation
s’observe aussi dans le domaine des technologies de l’information,
notamment par l’utilisation de systèmes de chiffrement
.


3. Les possibilités offertes par l’intelligence artificielle en matière de gestion des migrations
22. L’Organisation internationale
pour les migrations (OIM) constate que l’expérience migratoire se
structure généralement en plusieurs phases: la préparation au départ,
le transit, l’arrivée, le séjour, la migration circulaire et le
retour, ainsi que l’intégration ou la réintégration durables
. Pour gérer les mouvements mixtes
des personnes migrantes, réfugiées et demandeuses d’asile, le Haut-Commissariat
des Nations Unies pour les réfugiés (HCR) promeut une approche globale,
fondée sur les itinéraires et centrée sur trois objectifs principaux:
sauver des vies et réduire les préjudices; fournir une protection
précoce et des solutions pour décourager les voyages dangereux;
et aider les États à gérer ces mouvements dans le respect du droit international
. Ces actions reposent sur la Convention
de 1951 relative au statut des réfugiés et son protocole de 1967
(«Convention relative au statut des réfugiés»), qui consacrent le
principe de la protection internationale. Les instruments relatifs
aux droits humains énoncent l’obligation de traiter toutes les personnes, y
compris les personnes migrantes, réfugiées et demandeuses d’asile,
avec dignité et de garantir leurs droits
. D’autres
engagements pris par les États figurent dans le Pacte mondial sur
les réfugiés et dans le Pacte mondial pour des migrations sûres,
ordonnées et régulières
.




23. En s’appuyant sur la Convention-cadre du Conseil de l’Europe
sur l’intelligence artificielle, le règlement sur l’IA de l’UE et
les cadres d’orientation élaborés par le HCR, l’OIM et l’OCDE, l’Assemblée
est en mesure de formuler des recommandations concrètes visant à
garantir que le déploiement de l’IA dans le domaine des migrations
respecte pleinement les normes relatives aux droits humains, les
principes éthiques, les exigences de transparence et l’obligation
de rendre des comptes. De l’étape préalable au départ jusqu’à la
réintégration durable, les États membres doivent veiller à instaurer
des garanties contre les biais, à assurer une supervision humaine
des systèmes d’IA, et à préserver la dignité des personnes migrantes,
réfugiées et demandeuses d’asile.
3.1. L’étape préalable au départ
24. Avant d’émigrer à l’étranger,
les candidat·es au départ doivent souvent franchir des étapes administratives,
juridiques et logistiques complexes. Les mesures prises au cours
de la phase précédant le départ varient considérablement (selon
que la préparation est longue ou le déplacement soudain). Elles peuvent
être l’occasion d’utiliser l’IA pour favoriser une gestion des migrations
fondée sur les droits.
25. Pour garantir le respect des droits humains à ce stade, il
faut réaliser des évaluations d’impact rigoureuses avant de déployer
l’IA. Il faut établir des procédures de présélection transparentes
pour les visas et les demandes d’asile, et les outils comme le système
ETIAS de l’UE doivent être assortis de garanties, telles qu’une
révision manuelle obligatoire des alertes à haut risque générées
par l’IA. Les chatbots alimentés par l’IA qui donnent des informations
avant le départ (comme ceux qui sont testés dans certains pays de
l’OCDE) doivent indiquer leurs limites pour éviter la diffusion
de fausses informations.
26. L’IA offre également la possibilité de faciliter les migrations
de travail légales, grâce à des systèmes qui permettent d’obtenir
à l’avance des permis de travail et de séjour. Des outils comme
SkillMap (développé par SkillLab) aident à repérer des pratiques
de recrutement abusives en analysant les données des employeurs
et les offres d’emploi
. L’«Initiative 1» de l’UE sur l’utilisation
de l’IA dans les procédures de demande de visa doit permettre de
gagner en efficacité et d’améliorer la sécurité intérieure de l’espace
Schengen grâce à des contrôles d’antécédents automatisés.


27. Ainsi que le souligne la Résolution 2401 (2021) de l’Assemblée « Climat et migrations », l’IA peut aussi servir
à établir, de manière éthique, des prévisions en matière de migrations
liées aux changements climatiques, en utilisant les données climatiques
et socio-économiques pour anticiper les schémas de déplacement et
orienter les réponses humanitaires – au lieu d’être utilisées pour
justifier des politiques restrictives de contrôle des frontières
.

28. L’IA joue un rôle dans la lutte contre les réseaux de passeurs,
grâce à des outils qui analysent les activités sur le dark web (l’internet
clandestin) et les flux financiers: par exemple, dans le projet
PROMENADE de l’UE, l’apprentissage automatique est utilisé pour
suivre les mouvements des navires. Toutefois, pour éviter les abus,
il faut veiller à ce que ces technologies respectent les normes
des droits humains, conformément à la méthodologie HUDERIA du Conseil
de l’Europe
.


29. Les outils de vérification de l’éligibilité aux visas (comme
OpenSphere.ai) doivent régulièrement faire l’objet d’audits de biais,
et respecter la transparence du processus décisionnel, pour que
les décisions puissent être contestées. La protection des données
et la non-discrimination doivent rester des principes directeurs, notamment
lorsque l’IA est utilisée pour analyser des données biométriques
ou des schémas comportementaux
.


30. Les chatbots alimentés par l’IA sont de plus en plus utilisés
à travers l’Europe pour l’assistance multilingue lors d’une demande
de visa, la prise de rendez-vous et les conseils juridiques. L’on
peut citer, par exemple, Visabot aux États-Unis, Kamu en Finlande
et AsyLex en Suisse, qui favorisent l’accès à la justice pour les
personnes en demande d’asile. Des pays comme la Türkiye et le Royaume-Uni
ont mis en place des systèmes de visa électronique en ligne qui
intègrent des fonctions d’IA permettant de faire un premier tri
entre les demandes standard et les demandes «à risque». Ces dernières
sont transmises aux agent·es des services d’immigration pour un
examen plus approfondi
. Les outils d’IA contribuent à réduire
les charges administratives et à soutenir les groupes marginalisés,
à condition qu’ils soient assortis de garanties éthiques et puissent
être utilisés hors ligne.

31. Les chatbots servent aussi à lutter contre la désinformation
et contre le trafic illicite de personnes migrantes. Des outils
comme ACME utilisent des techniques d’argumentation automatisée
pour corriger les idées reçues sur les migrations, tandis que des
outils d’analyse prédictive aident les personnes migrantes, réfugiées
et demandeuses d’asile à développer leurs compétences et à choisir
leur destination. Cependant, les pouvoirs publics doivent s’employer
davantage à contrer les faux récits et l’utilisation abusive de
l’IA, en veillant à ce que l’innovation renforce – au lieu de compromettre
– la protection des personnes migrantes et la dignité humaine, comme
le soulignent les lignes directrices de l’UE en matière d’éthique
pour une IA digne de confiance et les principes pour l’utilisation
éthique de l’IA dans le système des Nations Unies
.

3.2. L’étape du transit
32. Pour les personnes migrantes,
l’étape du transit est souvent complexe et prolongée, à cause de multiples
déplacements, de retards dus à des conflits, de contrôles renforcés
aux frontières, ou du manque de ressources. Certaines se retrouvent
bloquées: elles ne peuvent ni retourner chez elles, ni régulariser
leur situation, ni poursuivre leur parcours migratoire par des voies
légales.
33. Au cours de l’étape de transit, les outils d’IA doivent être
utilisés avec prudence et dans le respect des droits humains
. Les États devraient éviter de déployer
des technologies de reconnaissance des émotions et de prévision
policière, à moins que cela ne soit strictement nécessaire à la
sécurité nationale, et ils doivent interdire les systèmes qui limitent
la liberté de circulation par le biais d’analyses basées sur des
suppositions. Des outils comme iSentry devraient servir uniquement
à la détection de menaces vérifiables, telles que le trafic illicite
de personnes migrantes, et non à un profilage comportemental généralisé
.



34. Le partage transfrontalier de données devrait être sécurisé
et fondé sur les droits. Des systèmes comme EUROSUR doivent garantir
le chiffrement des données biométriques et en limiter l’accès aux
seules entités autorisées. La «politique de protection des données»
adoptée par l’OIM en 2023 définit un cadre pour partager en toute
sécurité des données anonymisées sur les flux migratoires
.


35. L’utilisation des technologies de surveillance dans les zones
de transit doit être soigneusement réglementée. La surveillance
de masse par l’IA – qui recourt, par exemple, à la reconnaissance
faciale ou à des drones, et qui est utilisée sur des sites comme
le littoral calaisien – porte souvent atteinte à la vie privée et
a un effet dissuasif sur les personnes en demande d’asile
. La Convention-cadre du Conseil
de l’Europe sur l’IA interdit le recours à la catégorisation biométrique
dans les contextes migratoires, sauf s’il est strictement nécessaire
et proportionné
.



36. Lors d’un échange de vues tenu le 17 octobre 2024 à Ljubljana,
Mme Petra Molnar a observé que les espaces
où se trouvent des personnes réfugiées servent souvent à expérimenter
de nouvelles technologies dans des environnements peu réglementés.
Elle a critiqué l’écosystème fondé sur la peur qui criminalise les migrations
et légitime les refoulements et a expliqué que cette situation est
souvent aggravée par le déploiement d’outils de surveillance fondés
sur l’IA et d’outils de prise de décision automatisée.
37. Par ailleurs, l’IA peut soutenir les efforts humanitaires
pendant le transit. Par exemple, des systèmes d’IA peuvent aider
à concevoir des couloirs humanitaires sûrs en analysant les données
en temps réel relatives au conflit. La «Stratégie de transformation
numérique» du HCR souligne l’importance du consentement et de la
minimisation des données lors du déploiement de ces outils
. Toutefois, ainsi que l’a constaté
le Groupe de travail des Nations Unies sur l’utilisation de mercenaires,
il y a eu des cas d’utilisation abusive: par exemple, des drones
ont servi, non pas à faciliter des opérations de sauvetage, mais
à renvoyer des personnes migrantes, réfugiées et demandeuses d’asiles
vers des pays où elles risquaient d’être victimes de violations graves
des droits humains
.



38. Des outils novateurs comme le chatbot Aurora proposent aux
personnes migrantes des mises à jour en temps réel sur les itinéraires
sûrs, les procédures aux frontières et l’aide humanitaire; grâce
au multimédia, l’illettrisme n’est pas un obstacle à l’utilisation
de cet outil
. En Amérique latine, Aurora compte
plus de 1 000 utilisateurs et utilisatrices par mois dans des pays
comme la Colombie et le Panama. Des applications d’IA axées sur
les situations d’urgence et sur la santé soutiennent aussi les personnes
migrantes en transit. Ainsi, le chatbot Karim propose un accompagnement
en santé mentale au moyen d’exercices de thérapie cognitivo-comportementale
dans les langues natales des personnes migrantes; au Mexique, une
application dotée d’un bouton d’appel d’urgence utilise l’IA pour
géolocaliser les personnes migrantes placées en détention et activer
une intervention consulaire
.



3.3. L’étape de l’arrivée
39. Les personnes qui empruntent
des voies officielles de migration font généralement l’objet d’un
contrôle à un poste-frontière. Un visa en cours de validité ne garantit
pas l’entrée sur le territoire. En effet, les autorités chargées
du contrôle aux frontières peuvent refuser l’entrée, notamment si
elles soupçonnent que le visa pourrait avoir été obtenu de manière
frauduleuse, si elles identifient des menaces pour la sécurité nationale
ou pour la santé publique, ou si elles estiment que la situation
a changé depuis la délivrance du visa. Les personnes migrantes,
réfugiées et demandeuses d’asile qui font une tentative d’entrée
irrégulière sont soumises à une procédure de recevabilité, et celles
qui sont interceptées après leur entrée peuvent faire l’objet d’un
retour volontaire ou d’une mesure d’éloignement. Les dossiers concernant
des personnes demandeuses d’asile ou mineures sont particulièrement
sensibles: ils requièrent des évaluations plus nuancées à cause
du risque accru de violations des droits humains en cas de retour.
40. Lors de l’étape de l’arrivée, il faut veiller à ce que les
systèmes d’IA appliqués aux procédures d’asile soient centrés sur
la personne
. La prise de décision automatisée
doit être limitée et les décisions doivent rester sous la responsabilité
d’êtres humains. L’IA peut faciliter des tâches administratives
(en résumant les entretiens d’asile, par exemple), mais la décision
finale ne doit pas être déléguée à des algorithmes. La Convention-cadre
du Conseil de l’Europe sur l’IA exige la création de mécanismes
de contrôle juridictionnel permettant aux personnes demandeuses
d’asile de contester les éléments de preuve générés par l’IA, tels
que les analyses linguistiques ou les évaluations de crédibilité
. L’Agence de l’Union européenne
pour l’asile (AUEA) a mis au point un outil appelé LADO (Language Assessment for Determination of Origin),
qui utilise l’IA pour distinguer les dialectes et les accents. Les
résultats obtenus par ces outils doivent toutefois être interprétés
avec prudence et faire l’objet d’un contrôle humain.




41. L’importance croissante de l’IA dans la gestion des frontières
en Europe a été examinée lors de l’échange de vues que la commission
a eu le 29 janvier 2025 avec M. Philippe Harant. Celui-ci a présenté
les activités de l’Agence de l’Union européenne pour la gestion
opérationnelle des systèmes d’information à grande échelle (eu-LISA)
en matière de développement de systèmes, de formation et d’innovation.
eu-LISA gère actuellement des composantes majeures de l’infrastructure
numérique de l’UE concernant la justice et les affaires intérieures:
le Système d’information Schengen (SIS), le Système d’information
sur les visas (VIS) et Eurodac, ainsi que le EES et le ETIAS, qui
doivent être déployés prochainement.
42. Selon le rapport d’eu-LISA intitulé «Enabling Seamless Travel
to the European Union», le voyage a connu une profonde transformation
au cours des 20 dernières années, le nombre de personnes effectuant
des voyages internationaux ayant presque doublé. Face à cette situation,
on recourt à l’IA et aux technologies associées pour rendre les
déplacements à la fois plus faciles et plus sûrs. La numérisation
de la procédure de demande de visa Schengen et l’extension des systèmes
automatisés de contrôle aux frontières devraient permettre de simplifier
les démarches tout en renforçant les protocoles de sécurité
.

43. Le contrôle préalable à l’arrivée à la frontière est une priorité
croissante. L’intégration d’EES et d’ETIAS permettra aux transporteurs
internationaux de passagers d’avoir accès aux systèmes de sécurité
de l’UE pour vérifier les droits d’entrée des voyageurs avant leur
arrivée. Les assistants virtuels d’ETIAS dotés d’IA guideront les
personnes prévoyant de voyager tout au long du processus d’autorisation
en ligne, prérempliront les formulaires de demande, valideront les
données et apporteront une assistance multilingue. D’autres innovations,
telles que les titres de voyage dématérialisés et les portiques
de contrôle automatisés pour les titulaires de passeports biométriques,
visent à réduire les temps d’attente et à améliorer l’efficacité,
notamment pour les voyages aériens. En revanche, il n’y a encore
guère d’applications similaires pour les transports ferroviaires,
routiers et maritimes.
44. En outre, la Commission européenne mène plusieurs projets
fondés sur l’IA pour l’administration de l’asile, dont ASYLUM-14,
un moteur de recherche intelligent destiné à soutenir les procédures
d’asile
.

45. À des fins d’équité et de responsabilité, il faut soumettre
régulièrement les technologies biométriques, telles que les dispositifs
de reconnaissance faciale, à des audits de biais, en évaluant leurs
performances selon les couleurs de peau et les genres. Ainsi que
le montre le cas du «Smart Tunnel» de Dubaï, des évaluations trimestrielles
sont indispensables
. Le Comité européen de l’intelligence
artificielle, proposé dans le cadre du règlement de l’UE sur l’IA,
devrait coordonner et harmoniser les protocoles de test pour garantir
le respect des principes de non-discrimination. Les technologies
qui seront utilisées dans l’avenir pour le contrôle aux frontières
combineront probablement l’IA, des chaînes de blocs (blockchains) et la vérification
de documents numériques, ce qui nécessitera une forte surveillance
réglementaire.


46. L’IA est utilisée dans les procédures d’asile pour diverses
fonctions, dont la transcription de la parole en texte, la traduction
automatique, l’authentification des documents, l’identification
des dialectes, la communication d’informations au moyen de chatbots,
la recherche sur les pays d’origine et la prévision des tendances
en matière d’asile. Le 3 octobre 2024, Mme Ludivine
Stewart a indiqué que les autorités nationales recourent à l’IA
pour alléger la charge administrative et améliorer la fiabilité
des décisions. Par exemple, l’Allemagne utilise des outils de reconnaissance
des dialectes pour déterminer les pays d’origine des personnes qui
demandent l’asile. Cependant, la reconnaissance des émotions, souvent
utilisée pour détecter la tromperie, est très peu fiable en raison
de la variabilité culturelle de l’expression des émotions et ne
devrait donc pas être employée.
47. Il s’agit de garantir la transparence des procédures; les
personnes concernées par les décisions fondées sur l’IA doivent
en effet pouvoir comprendre la technologie et disposer de voies
de recours effectives. Les outils testés par le ministère de l’Intérieur
britannique, tels que les systèmes ACS et APS, permettent d’améliorer l’efficacité,
mais risquent de renforcer les biais
. C’est pourquoi un contrôle humain
doit être imposé, en particulier pour les résumés d’entretiens et
les rapports sur les pays d’origine générés par l’IA. Les procédures de
recours doivent rester pleinement accessibles, comme le prévoit
l’article 47 de la Charte des droits fondamentaux de l’UE
.



48. Le 11 mars 2025, Mme Frida Alizadeh
Westerling a souligné devant la commission la nécessité d’intégrer
les points de vue des personnes migrantes dans la conception des
systèmes d’IA. Ses recherches montrent que les technologies actuellement
utilisées dans la gestion des migrations sont d’abord conçues pour servir
des priorités institutionnelles comme l’efficacité administrative,
parfois au détriment des droits des personnes qui demandent l’asile.
Une meilleure prise en compte des expériences des personnes migrantes contribuerait
à améliorer la confiance dans la procédure et la qualité des décisions.
49. Selon Mme Westerling, certaines
applications d’IA à haut risque doivent être interdites sans équivoque. Parmi
celles-ci figurent les outils de reconnaissance des émotions, les
évaluations de crédibilité automatisées ou les «détecteurs de mensonges»
utilisés lors des entretiens aux frontières. Ces technologies manquent
de validité scientifique et, comme le confirme le règlement de l’UE
sur l’IA, portent atteinte à la dignité humaine, en violation de
l’article 3 de la Convention européenne des droits de l’homme. De
même, le profilage par l’IA fondé sur la nationalité ou l’appartenance
ethnique est contraire à l’article 14 de la Convention et ne doit
pas être utilisé.
50. Les systèmes d’IA déployés pour le traitement des demandes
d’asile doivent constamment faire l’objet d’audits destinés à détecter
les biais. S’ils sont entraînés à partir d’ensembles de données
non représentatifs, ces outils risquent en effet de signaler à tort
des incohérences dans les récits des personnes demandeuses d’asile.
La méthodologie HUDERIA du Conseil de l’Europe donne des orientations
pour rééquilibrer les données et ajuster les algorithmes afin d’éliminer
les résultats discriminatoires.
51. L’IA présente également des avantages potentiels pour la gestion
des arrivées massives, en permettant aux États et aux agences comme
le HCR d’anticiper les flux migratoires résultant de conflits ou
d’événements climatiques. Des outils tels que la matrice de suivi
des déplacements (Displacement Tracking
Matrix) de l’OIM utilisent les enregistrements d’appels
téléphoniques passés à partir de portables et la géolocalisation,
ainsi que l’analyse de l’activité des médias sociaux, pour connaître
les mouvements de population et prévoir les besoins humanitaires
. Ces systèmes aident les gouvernements
à détecter les points faibles des dispositifs d’accueil et à allouer
des ressources en conséquence.

52. Le HCR utilise largement les technologies d’IA à des fins
logistiques et de distribution de l’aide. Ainsi que l’explique Mme A. Beduschi,
le HCR s’appuie notamment sur le Système de gestion de l’identité biométrique
(BIMS), sur CashAssist et sur le Global Distribution Tool (GDT)
pour gérer l’aide financière et l’aide en nature dans les camps
de réfugiés. Ces outils permettent de rationaliser la prestation
de services et d’améliorer la coordination dans les situations de
crise. Ils peuvent aussi améliorer l’accès aux services publics et
réduire les délais administratifs
.

53. Cependant, le 11 mars 2025, Mme Emilie
Wiinblad Mathez (HCR) a bien précisé à la commission que le HCR
n’utilisait pas l’IA pour prendre ou réviser les décisions relatives
au statut de réfugié. En fait, le HCR étudie les possibilités d’utiliser
l’IA générative pour des tâches comme la transcription des entretiens
(menés dans le cadre des procédures de protection) et la recherche
d’informations sur les pays d’origine, en veillant à ce que tous
les résultats soient conformes aux normes de fiabilité, d’exactitude
et de transparence
. Le HCR mène aussi une réflexion
sur la manière dont l’IA peut contribuer à lutter contre la désinformation,
en soulignant la nécessité d’intégrer des garanties de sécurité
et de respect de la vie privée dès la conception des systèmes et tout
au long de leur déploiement.

54. Les outils d’IA peuvent aussi contribuer à réduire le nombre
des demandes frauduleuses et des demandes irrecevables. Le chabot
ACME, par exemple, aide les personnes en quête d’asile à analyser
leur situation au regard des bases de données juridiques existantes
et à déterminer à quels statuts de protection elles pourraient prétendre,
et signale d’éventuelles incohérences (comme des historiques d’emploi incompatibles),
tout en respectant les obligations de transparence énoncées dans
le règlement de l’UE sur l’IA
.

55. Enfin, dans les domaines de l’asile et de la police des étrangers,
les systèmes d’IA sont de plus en plus utilisés pour évaluer les
risques. Ils permettent de déterminer si une personne risque de
subir un préjudice en cas de retour et si le principe de non-refoulement
s’applique – même lorsque la personne n’a pas demandé l’asile. Ces
évaluations des risques sont essentielles d’un point de vue éthique
et juridique, mais la vérification de l’identité et de l’origine
reste un défi et nécessite le recours à des évaluations de la crédibilité
basées sur l’IA qui soient fiables et transparentes.
3.4. La période de séjour
56. Une fois admises dans un pays
d’accueil, les personnes migrantes, réfugiées ou demandeuses d’asile se
voient généralement accorder un permis de résidence temporaire qui
légalise leur séjour dans le pays; certains États proposent aussi
des voies d’accès à l’installation permanente. Il est attendu de
ces personnes qu’elles se conforment aux conditions juridiques de
leur séjour (liées à l’emploi, à l’éducation ou au regroupement
familial, par exemple), tandis que les États restent tenus de respecter
les droits fondamentaux, y compris le principe de non-refoulement,
qui interdit de renvoyer des personnes vers des lieux où elles risquent
de subir de graves préjudices. Dans des circonstances exceptionnelles,
notamment en cas de conflit, de catastrophe naturelle ou de traite
des êtres humains, les États peuvent accorder une protection temporaire pour
assurer la sécurité des personnes concernées et différer leur éloignement.
3.4.1. La contribution de l’IA à une intégration inclusive
57. La phase d’intégration est
essentielle dans une perspective de cohésion sociale et de développement durable.
La Résolution 2502 (2023) de l’Assemblée « Intégration des migrants et des réfugiés:
des avantages pour toutes les parties prenantes » définit un cadre
pour des stratégies d’inclusion qui sont bénéfiques aux personnes
migrantes, réfugiées et demandeuses d’asile comme aux communautés
d’accueil. L’IA peut être mise à profit pour rationaliser les processus
administratifs, favoriser l’insertion professionnelle, améliorer l’accès
aux services et les autonomiser grâce à des solutions sur mesure.
58. Mme Mariam Tartousy (Norvège),
qui s’exprimait devant la commission au nom du Conseil consultatif sur
la jeunesse, a mis en évidence les promesses et les risques de l’IA
dans ce contexte. L’IA peut améliorer l’efficacité des systèmes
d’asile et des services d’intégration, mais des progrès restent
nécessaires en matière de transparence algorithmique, de culture
numérique et d’accessibilité. Mme Tartousy
a plaidé en faveur d’une plus grande responsabilisation, d’une conception
inclusive et de systèmes orientés vers l’utilisateur/l’utilisatrice,
qui permettent d’éviter que l’utilisation d’outils numériques ait
pour conséquence d’exclure ou de désavantager les personnes migrantes,
réfugiées et demandeuses d’asile.
3.4.2. Réduire la fracture numérique
59. Nombre de personnes migrantes
ou réfugiées sont confrontées à l’exclusion numérique, qui réduit
leur capacité à utiliser les services reposant sur l’IA. La stratégie
de transformation numérique du HCR recommande que les outils d’IA
(comme l’application d’apprentissage linguistique AILEM, conçue
avec des personnes réfugiées) soient mis à disposition en plusieurs
langues et sous différentes formes
. Les chatbots utilisés dans les services
publics devraient être accessibles hors ligne et dotés d’une interface
vocale, et leur contenu devrait être élaboré en collaboration avec
des personnes migrantes ou réfugiées, des prestataires d’assistance
juridique et des médiateurs et médiatrices communautaires
. C’est le cas du chatbot Aurora, développé
en Amérique latine, qui améliore l’accès à l’information en intégrant
les réactions des personnes migrantes ou réfugiées dans sa conception
.




60. Devant la commission, le 11 mars 2025, Mme Emilie
Wiinblad Mathez a relevé l’utilisation croissante de grands modèles
de langage (LLM), tels que ChatGPT, Gemini et CoPilot, ainsi que
de systèmes d’IA moins visibles, dans le secteur public et le secteur
privé. Elle a souligné que ces outils doivent être évalués sous l’angle
de leur fiabilité et de leur pertinence contextuelle, notamment
en ce qui concerne la protection des personnes réfugiées. Ces personnes
ont en effet des besoins de protection internationale particuliers,
qui doivent être dûment pris en compte lors du développement de
toute application d’IA dans ce domaine.
3.4.3. Des moyens éthiques d’améliorer l’adéquation entre l’offre et la demande sur le marché du travail
61. Des outils d’IA comme GeoMatch
et Annie MOORE sont conçus pour optimiser la réinstallation des personnes
réfugiées en tenant compte de caractéristiques individuelles (comme
le niveau d’instruction et la maîtrise de la langue) et de facteurs
locaux comme les métiers en tension et les infrastructures collectives
. Ces outils doivent donner la priorité
à l’unité familiale et à la compatibilité culturelle et prendre
en considération la dimension de genre pour éviter de renforcer
la ségrégation sur le marché du travail (par exemple, il faut éviter d’orienter
les femmes de manière disproportionnée vers des métiers faiblement
rémunérés). Des mécanismes de retour d’information doivent être
intégrés dans les outils pour détecter et corriger les inadéquations
entre les profils et les emplois proposés
.


62. Dans son exposé du 3 octobre 2024, M. William Jones a présenté
Annie MOORE, qui utilise des données migratoires des États-Unis
pour améliorer l’adéquation entre l’offre et la demande sur le marché
du travail. Ce logiciel permettrait une progression des insertions
professionnelles réussies comprise entre 25 et 30 %. M. Jones a
aussi présenté Annie 2.0, qui aide à prévoir l’arrivée de personnes
réfugiées et à déterminer l’endroit le plus adapté à leur réinstallation,
avant même que les dates d’arrivée soient confirmées, permettant ainsi
aux autorités de mieux anticiper les besoins. Enfin, Ruth, un autre
outil développé dans le cadre de la même initiative, permet de prendre
en compte les préférences des personnes réfugiées dans les décisions relatives
à la réinstallation; utilisé pour l’accueil des Ukrainiennes et
des Ukrainiens aux États-Unis, il s’est montré rapide et réactif.
3.4.4. Apprentissage des langues et adaptation culturelle
63. L’IA favorise l’intégration
grâce à des outils d’orientation linguistique et culturelle adaptés.
L’application AILEM traite de situations culturellement pertinentes
et propose des fonctionnalités comme AILEMmap, qui géolocalise des
services de soutien linguistique, et AILEMexchange, qui met les
apprenant·es en relation avec des locutrices et locuteurs natifs
. De même, l’application Eureka présente,
en plusieurs langues, les usages locaux: par exemple, elle donne
des informations pratiques comme les consignes de tri des déchets
à Amsterdam
.


64. Des outils de traduction en temps réel assistés par l’IA,
comme le traducteur vocal-texte de MigrantSocial, prennent en charge
une centaine de langues et aident les personnes migrantes, réfugiées
et demandeuses d’asile à communiquer avec des bailleurs, des professionnel·les
de santé ou des enseignant·es
. Ces outils ont permis de réduire
de 23 % les coûts administratifs pour les collectivités locales tout
en renforçant la confiance interculturelle. Une meilleure acquisition
de la langue s’accompagne aussi d’une diminution de 31 % du recours
aux services sociaux, ainsi que d’un renforcement de la cohésion sociale
.


3.4.5. Inclusion juridique, sociale et économique
65. En outre, l’IA améliore l’accompagnement
juridique et social. En France, l’application Réfugiés.info donne
des informations en plusieurs langues sur le système de santé, le
logement et les droits
. Le chatbot Skendy, opérationnel
à Amsterdam et à Prague, aide à gérer les documents administratifs
et à renouveler un visa, et accompagne même les personnes réfugiées
qui veulent créer une entreprise ou demander une subvention
. À Amsterdam, 68 % des start-ups
dirigées par des personnes réfugiées utilisant Skendy ont obtenu
un financement de démarrage dans un délai de six mois
. Il a notamment été constaté que
les chef·fes d’entreprise qui sont des personnes migrantes créent
3,2 fois plus d’emplois par habitant que leurs homologues nés dans
le pays, et contribuent donc de manière significative à redynamiser
l’économie locale
.





3.4.6. Gouvernance, supervision et outils prédictifs
66. L’IA est de plus en plus utilisée
dans les décisions relatives aux séjours de longue durée et à l’intégration dans
l’espace Schengen. Les autorités peuvent recourir à l’IA pour vérifier
le respect de la législation, contrôler les conditions de résidence
ou améliorer la prévention de la fraude. Cependant, vu les enjeux
en matière de vie privée, de droits de la défense et de protection
contre la discrimination, il est indispensable de mettre en place
des garanties juridiques solides et des audits indépendants
. Ainsi que le soulignent les principes
pour l’utilisation éthique de l’IA dans le système des Nations Unies,
les États devraient procéder à des évaluations annuelles des risques
afin de détecter les pratiques discriminatoires, telles que le marquage
résidentiel ( redlining)»
algorithmique, qui entrave l’accès de certaines personnes au logement.


67. Des systèmes d’IA peuvent aussi contribuer à optimiser la
répartition géographique des personnes demandeuses d’asile en les
orientant vers les régions où elles ont le plus de chances de réussir,
sur la base de la compatibilité de leurs compétences avec le marché
de l’emploi local, mais aussi en fonction des réseaux communautaires
et des services disponibles. Des outils prédictifs sont déjà utilisés
pour la planification urbaine; c’est le cas à Utrecht, où des stratégies
de logement élaborées avec l’aide de l’IA ont permis de réduire
la ségrégation ethnique de 19 % et d’accroître l’innovation et la
cohésion sociale
.


68. Les stratégies d’intégration appuyées par l’IA peuvent présenter
un double avantage: elles peuvent accélérer l’autonomisation tout
en renforçant la résilience économique et sociale des communautés
d’accueil. Pour que ce potentiel se réalise, il faut que les États
membres mettent en œuvre des solutions comme GeoMatch, investissent
dans des technologies linguistiques inclusives comme AILEM, et respectent
les normes éthiques énoncées dans la Convention-cadre du Conseil
de l’Europe sur l’IA.
69. Enfin, comme le montre l’étude menée par Bansak et ses collègues,
si les autorités se font aider par l’IA pour orienter les personnes
réfugiées vers les lieux les plus adaptés, sur la base de données
personnelles et régionales (langue, niveau d’instruction, marché
de l’emploi local, etc.), leur intégration peut être grandement améliorée.
Cette forme de prise de décision guidée par les données permet aux
responsables de personnaliser les orientations et d’améliorer les
perspectives à long terme.
3.4.7. L’IA dans l’éducation et la préparation à l’avenir
70. L’IA peut également transformer
l’accès à l’éducation pour les personnes migrantes ou réfugiées, qu’elles
soient des adultes ou des enfants. Des outils personnalisés d’apprentissage
des langues offrent un retour d’information en temps réel sur la
prononciation, la fluidité et la compréhension, et s’adaptent aux progrès
individuels. Ces innovations peuvent jouer un rôle essentiel en
aidant les personnes migrantes, réfugiées et demandeuses d’asile,
en particulier les jeunes, à s’adapter plus rapidement à leur société d’accueil,
et à se sentir davantage en confiance.
3.5. Les étapes de la migration circulaire et du retour
71. La migration circulaire désigne
les mouvements répétés effectués entre des pays par des personnes comme
des travailleurs saisonniers ou des résidents permanents qui conservent
des liens avec leur pays d’origine. Lorsqu’elle est volontaire,
elle peut être bénéfique pour les pays d’origine et pour les pays
d’accueil, tant sur le plan économique que social. Des personnes
migrantes rentrent volontairement pour des raisons personnelles
ou professionnelles, mais d’autres y sont contraintes, parce qu’elles
ont perdu leur statut juridique. Dans ces situations, la participation
à un programme d’aide au retour et à la réinsertion peut constituer
une solution plus digne que l’expulsion.
72. Les États doivent veiller à ce que les processus de retour
soient sûrs, volontaires et fondés sur une information complète.
Des outils alimentés par l’IA – comme les chatbots pour l’aide au
retour – peuvent améliorer l’accès à l’aide à la réinsertion, mais
ils ne doivent pas faire pression sur les personnes migrantes pour
qu’elles retournent chez elles. Ces systèmes devraient se conformer
aux principes d’équité énoncés dans les lignes directrices de l’OCDE
sur l’IA
.


73. Les plateformes d’IA qui gèrent la migration circulaire, comme
le réseau de cartes bleues européennes, doivent respecter les normes
de protection des données: les personnes migrantes doivent pouvoir
supprimer ou transférer leurs données à caractère personnel, et
le partage des données biométriques avec les pays d’origine doit
être interdit, notamment en présence de risques de persécution
. La politique du HCR sur la protection
des données (2022) impose l’utilisation du chiffrement, la limitation
de l’accès aux données et leur suppression après décision
.



74. En outre, l’IA peut contribuer à l’évaluation des risques
environnementaux pour les destinations de retour en utilisant des
images satellites et l’analyse prédictive. Les États peuvent recourir
à l’IA pour évaluer les conditions environnementales dans les régions
de retour. Par exemple, l’analyse d’images satellites à l’aide de
techniques d’apprentissage automatique permet de vérifier si la
sécheresse en Somalie s’est suffisamment atténuée pour envisager
un retour en toute sécurité. L’IA contribue ainsi à évaluer la situation
dans la région de retour. Des chatbots peuvent informer les personnes
concernées des résultats de ces évaluations, tout en chiffrant leurs
données biométriques
.


3.6. Les étapes de l’intégration et de la réintégration durables
75. L’intégration se caractérise
par une adaptation mutuelle des personnes migrantes, réfugiées et demandeuses
d’asile et des sociétés d’accueil, qui permet aux premières de participer
activement à tous les aspects de la vie: vie sociale, vie économique,
vie culturelle et vie politique. L’intégration est donc un processus réciproque,
fondé sur une responsabilité partagée et axé sur l’inclusion et
la cohésion sociale.
76. La réintégration, quant à elle, permet aux personnes migrantes
de retour de reprendre leur vie dans leur pays d’origine. Elle met
l’accent sur le bien-être économique, social et psychosocial, pour
que les migrations futures soient un choix et non une nécessité.
77. Pour faciliter l’intégration et la réintégration durables,
les États devraient mettre en place des systèmes de suivi à long
terme ainsi que des évaluations d’impact au niveau local. Ils devraient
aussi utiliser des outils d’IA (algorithmes de recherche de moyens
de subsistance adaptés développés par l’OIM ou outils d’établissement
de rapports mis au point dans le cadre du règlement européen sur
les services numériques par exemple), afin de suivre les résultats
(maintien dans l’emploi, cohésion sociale, etc.). Et ils devraient
aussi promouvoir la maîtrise du numérique et fournir des assistants
d’IA accessibles hors ligne (par exemple, Eureka)
pour des tâches comme l’inscription à l’assurance maladie ou l’apprentissage
des langues
.


78. Dans le cadre de la lutte contre la discrimination, le traitement
automatique du langage naturel (TLN) peut servir à détecter les
discours de haine en ligne. Des outils comme Sol.ai proposent des
tutoriels pour services numériques hors ligne, et il existe des
systèmes de TLN qui contrôlent la présence de propos xénophobes.
Le comité sur l'intelligence artificielle du Conseil de l’Europe
(CAI) souligne qu’il est important d’adjoindre à l’IA un contrôle
humain pour garantir l’exactitude contextuelle et éviter une censure
excessive
.

4. Les aspects transversaux
79. Pour que l’intelligence artificielle
bénéficie aux personnes migrantes, réfugiées et demandeuses d’asile sans
compromettre leur dignité humaine ni leurs droits, les États membres
doivent inscrire la gouvernance de l’IA dans les cadres de référence
sur les droits humains et mettre en place des garde-fous à chaque
étape du processus migratoire. Des structures juridiques contraignantes,
notamment la Convention-cadre du Conseil de l’Europe sur l’IA, devraient
être adoptées par voie de signature et de ratification
. La conception participative, comme
la participation des personnes réfugiées au développement de l’IA
(par exemple, le modèle Eureka), peut contribuer à ce que les systèmes
répondent aux besoins réels et à éviter de renforcer les préjugés institutionnels
.



80. Le renforcement des capacités est essentiel. Les fonds du
programme de l’UE pour une Europe numérique (Digital Europe) peuvent
être utilisés pour dispenser des formations sur l’éthique de l’IA
aux agent·es chargés de la migration
, et les ONG qui participent aux
audits de la surveillance aux frontières doivent également recevoir
des ressources et une formation. Les travailleuses et travailleurs
sociaux et les agent·es chargés du traitement des demandes d’asile
doivent être formés à l’évaluation critique des résultats produits
par les systèmes d’IA, en particulier lorsqu’il y a des écarts entre
les résumés automatiques et les auditions initiales
. Comme le souligne la «Stratégie
de transformation numérique» du HCR, le personnel doit être en mesure
de reconnaître les biais algorithmiques et de comprendre les limites
de l’IA, par exemple les difficultés à interpréter les schémas de
discours marqués par des traumatismes
. Cette stratégie souligne du reste
l’importance de former les personnels à la détection des biais algorithmiques
et à la contextualisation des résultats produits par l’IA
.






81. Il faut aussi intensifier les efforts pour renforcer les compétences
en matière d’IA de tous les acteurs de la gouvernance des migrations
et de l’asile. D’après le rapport de la Commission européenne intitulé «Opportunities
and challenges for the use of artificial intelligence in border
control, migration and security» (opportunités et défis liés à l’utilisation
de l’intelligence artificielle dans le domaine du contrôle des frontières, des
migrations et de la sécurité), une mise en œuvre efficace nécessite
un éventail de compétences dans de multiples domaines comme la politique,
le droit, l’éthique, la science des données, l’ingénierie de l’IA
et la conception des systèmes. Les centres d’excellence en matière
d’IA joueront un rôle central dans le développement de ces compétences
.

82. Enfin, la protection des données reste une préoccupation essentielle.
Les travaux de l’eu-LISA soulignent à cet égard la nécessité de
garantir la sécurité des données à caractère personnel en établissant un
lien direct entre la protection des droits humains et le déploiement
sûr et éthique de l’IA dans les systèmes de migration.
5. Conclusion
83. L’intelligence artificielle
façonne de plus en plus les procédures de migration et d’asile,
ce qui a des incidences sur les personnes migrantes, réfugiées et
demandeuses d’asile et les sociétés d’accueil. Si l’innovation technologique
ouvre des possibilités d’amélioration sur le plan de l’efficacité
et de la fourniture des services, son utilisation doit s’enraciner
fermement dans les principes des droits humains, de la démocratie
et de l’État de droit. Trouver le juste équilibre entre protection
humanitaire, d’un côté, et sécurité des frontières et sûreté publique,
de l’autre, constitue dès lors un défi majeur.
84. Au lieu de suivre les approches réglementaires adoptées par
d’autres régions, l’Europe doit s’employer activement à bâtir son
propre modèle de gouvernance de l’IA. Cela passe nécessairement
par l’intégration des valeurs européennes dans la conception et
l’utilisation des systèmes d’IA, en particulier dans des domaines sensibles
tels que la migration. L’IA est déjà largement utilisée avant le
départ et à l’arrivée des personnes migrantes, à des fins de vérification
de l’identité, d’évaluation des risques, de surveillance et de traitement
des demandes d’asile. Toutefois, son utilisation dans les procédures
de retour reste limitée.
85. Pour garantir un déploiement sûr et éthique de l’IA, les États
membres doivent, à chaque étape du processus migratoire, mettre
en place des garde-fous spécifiques qui soient conformes à la Convention
relative au statut des réfugiés et aux normes du Conseil de l’Europe.
Ils doivent notamment veiller à ce que les décisions en matière
d’asile restent dirigées par un être humain, concevoir les outils
d’intégration en coopération avec les personnes migrantes, réfugiées
et demandeuses d’asile et définir des protocoles pour la gouvernance
des données, l’audit et les recours. Des études d’impact de l’IA
doivent être menées de façon systématique afin d’évaluer les effets
potentiels de cette technologie sur les droits et les libertés.
86. La méthodologie HUDERIA du Conseil de l’Europe propose une
approche structurée de l’évaluation des risques pour les droits
humains. Les applications d’IA à haut risque doivent être interdites
et des mécanismes de contrôle solides, dont des comités d’examen
indépendants, doivent être créés. Ces structures doivent comprendre
des spécialistes de la société civile, des juristes et des expert·es
techniques pour permettre l’établissement des responsabilités et
garantir le respect des normes en matière de protection internationale.
87. Les mécanismes de recours doivent être directement disponibles
et facilement accessibles. Les demandeurs et demandeuses d’asile
doivent avoir le droit de contester les données produites par les
systèmes d’IA, notamment les synthèses d’entretien erronées et les
analyses biaisées, en engageant une procédure accélérée de réexamen
judiciaire. L’assistance juridique devrait être étendue à ce type
de contestations et des réparations doivent être disponibles lorsque
le préjudice résulte d’erreurs algorithmiques. En outre, les États parties
à la Convention-cadre du Conseil de l’Europe sur l’intelligence
artificielle doivent garantir l’accès à des voies de recours effectives
en cas d’atteinte aux droits.
88. Les outils éthiques alimentés par l’IA, tels que les agents
conversationnels, permettent d’accroître l’accès à l’information
et de réduire la vulnérabilité, à condition toutefois que leur mise
en œuvre soit assortie de garanties suffisantes. Ils doivent être
conçus de manière participative et les développements futurs doivent donner
la priorité à l’interopérabilité et à la fonctionnalité hors ligne
pour que les populations migrantes exclues du numérique puissent
aussi en bénéficier.