Imprimer
Autres documents liés

Rapport | Doc. 16240 | 09 septembre 2025

L’intelligence artificielle et la migration

Commission des migrations, des réfugiés et des personnes déplacées

Rapporteur : M. Petri HONKONEN, Finlande, ADLE

Origine - Renvoi en commission: Doc. 15952, Renvoi 4805 du 15 avril 2024. 2025 - Quatrième partie de session

A. Projet de résolution 
			(1) 
			Projet
de résolution adopté à l’unanimité par la commission le 24 juin
2025.

(open)
1. L’Assemblée parlementaire reconnaît le potentiel de transformation de l’intelligence artificielle (IA) dans toute une série de secteurs, y compris la gestion des migrations. Les systèmes d’IA – capables de prendre des décisions autonomes et d’analyser des données complexes – sont de plus en plus utilisés pour la surveillance des frontières, le traitement des visas, l’identification biométrique, le traitement automatique du langage naturel et l’aide à l’intégration. Ces applications promettent d’améliorer l’efficacité et l’accessibilité des services pour les personnes migrantes, réfugiées et demandeuses d’asile.
2. L’Assemblée souligne, toutefois, que l’innovation technologique ne doit pas se faire au détriment des droits fondamentaux. Utilisée à mauvais escient, l’IA peut renforcer les inégalités structurelles, porter atteinte à la vie privée et compromettre la protection des personnes demandeuses d’asile. Par conséquent, l’Assemblée réitère son appel lancé à tous les États membres du Conseil de l’Europe afin qu’ils signent et ratifient la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (STCE n° 225, ci-après la «Convention-cadre sur l’IA»), qui vise à garantir le développement et le déploiement de l’IA dans le respect des normes en matière de droits humains et interdit explicitement les applications de l’IA qui violent le droit de demander l’asile, comme indiqué à l’article 5.
3. La modernisation au moyen de l’IA doit être mise en œuvre de manière à limiter les risques et les effets néfastes pour les personnes migrantes, réfugiées et demandeuses d’asile, notamment en matière de discrimination et de reproduction de préjugés, et à ne pas renforcer involontairement les stéréotypes ou les préjugés existants. Les États devraient plutôt exploiter le potentiel de l’IA afin de promouvoir un système de gestion des migrations inclusif, sûr et humain.
4. Reconnaissant l’impact profond que l’IA peut avoir sur les droits et libertés individuels, l’Assemblée souligne que l’IA devrait soutenir – et non remplacer – la prise de décision humaine dans les processus de migration et d’asile, même si, dans certains cas, l’IA peut offrir plus de sécurité et d’efficacité que la seule prise de décision humaine, en réduisant le risque d’erreur humaine. Tous les outils d’IA doivent être transparents, responsables et soumis à contrôle. Ils doivent également être déployés conformément aux principaux instruments internationaux, notamment la Convention européenne des droits de l’homme (STE n° 5, ci-après la «Convention»), la Convention des Nations Unies (ONU) relative au statut des réfugiés telle que modifiée par le protocole de 1967 («Convention relative au statut des réfugiés») et la Charte des droits fondamentaux de l’Union européenne (UE).
5. Observant que le règlement européen sur l’intelligence artificielle classe les systèmes d’IA liés aux migrations parmi les technologies à haut risque, l’Assemblée souligne la nécessité de garanties supplémentaires. L’utilisation de l’IA dans la gestion des migrations, de l’asile et du contrôle des frontières ne doit pas permettre de contourner les obligations internationales, en particulier celles découlant de la Convention relative au statut des réfugiés. Elle ne devrait pas non plus être utilisée pour enfreindre de quelque manière que ce soit le principe de non-refoulement ou pour refuser des voies d’accès légales sûres et effectives, y compris le droit à la protection internationale.
6. Il est donc important que les systèmes d’IA utilisés dans les procédures de migration et d’asile fassent l’objet d’évaluations d’impact sur les droits humains, la démocratie et l’État de droit avant d’être déployés. L’Assemblée recommande d’utiliser la méthodologie HUDERIA du Conseil de l’Europe pour identifier et atténuer les risques, notamment les biais algorithmiques et les violations de la vie privée. Le contrôle doit être intégré tout au long du cycle de vie des systèmes d’IA, avec des évaluations indépendantes et une évaluation par l’humain obligatoire.
7. L’Assemblée demande l’interdiction d’outils d’intelligence artificielle tels que l’évaluation automatisée de la crédibilité, la reconnaissance des émotions et le profilage des risques sur la base de la nationalité ou de l’appartenance ethnique. Ces technologies, qui ne reposent sur aucune base scientifique fiable, sont incompatibles avec les articles 3 et 14 de la Convention.
8. Notant l’importance cruciale de la protection des données, de la vie privée et de la sécurité dans l’utilisation de l’IA pour les procédures d’asile, l’Assemblée souligne que les données sensibles, y compris les données biométriques, les transcriptions d’entretien et les informations sur le pays d’origine, doivent être cryptées de bout en bout et ne doivent pas être partagées avec le pays d’origine en cas de risque de persécution, conformément à la politique du Haut-Commissariat des Nations Unies pour les réfugiés (HCR) en matière de protection des données.
9. Les applications de l’intelligence artificielle dans la gestion des migrations doivent donc trouver un équilibre entre les gains d’efficacité et la protection rigoureuse des droits humains à toutes les étapes du parcours migratoire. L’utilisation de l’IA dans le domaine des migrations soulève des questions spécifiques qui doivent être abordées pour chaque étape de la procédure, depuis les activités préparatoires au départ jusqu’au transit, à l’arrivée, au séjour, à la circulation, au retour, qu’il soit temporaire ou définitif, et à la (ré)intégration durable. Il convient en priorité d’instaurer des garanties contre les biais, d’assurer une supervision humaine et de préserver la dignité des personnes migrantes, réfugiées et demandeuses d’asile, comme suit.
10. Avant le départ, les outils d’IA utilisés pour l’examen des demandes de visas et d’asile devraient faire l’objet d’une étude d’impact sur les droits humains avant d’être déployés. Les systèmes tels que le dispositif système européen d’information et d’autorisation de voyage (ETIAS) devraient permettre d’évaluer manuellement les cas signalés comme présentant un risque élevé. Tous les outils de filtrage doivent être transparents et ne pas produire d’effet discriminatoire. Les agents conversationnels (chatbots) alimentés par l’IA peuvent fournir des informations multilingues en temps réel aux personnes migrantes, réfugiées et demandeuses d’asile, à condition d’indiquer leur nature automatisée et de respecter les normes éthiques pour éviter de diffuser de fausses informations.
11. En ce qui concerne les migrations économiques par les voies appropriées, les outils d’IA peuvent être utilisés pour rationaliser, de manière équitable et accessible, la procédure de demande de permis de travail et de séjour. L’IA peut également aider à détecter les pratiques de recrutement abusives en identifiant les employeurs prédateurs et en alertant les autorités compétentes. Les outils d’IA qui permettent de vérifier les visas devraient faire l’objet d’un audit des biais et fournir des résultats transparents pouvant être contestés.
12. L’Assemblée encourage l’utilisation éthique de l’IA dans la prévision des migrations climatiques par l’analyse des données environnementales et socio-économiques afin d’améliorer la planification humanitaire conformément à sa Résolution 2401 (2021) « Climat et migrations ». Les outils pilotés par l’IA, notamment ceux qui sont développés par l’Organisation internationale pour les migrations (OIM), peuvent fournir aux responsables politiques une image prédictive plus claire des déplacements liés aux changements climatiques. Ces modèles prédictifs peuvent servir de base à des mesures de soutien proactives.
13. L’IA peut également être utilisée pour identifier et déstabiliser les réseaux de trafic illicite de personnes migrantes grâce à une analyse responsable des données.
14. Pendant le transit, l’Assemblée souligne la nécessité d’une réglementation stricte des technologies de surveillance pilotées par l’IA. La prévision policière et l’identification biométrique doivent être limitées à un usage strictement nécessaire et proportionné, et toutes les données biométriques doivent être cryptées et réservées au personnel autorisé. La Convention-cadre du Conseil de l’Europe sur l’IA encadre la catégorisation biométrique en la réservant aux situations où elle est strictement nécessaire et proportionnée. Les systèmes d’IA, tels que le Système européen de surveillance des frontières (EUROSUR), qui surveillent les mouvements aux frontières doivent se conformer à la politique de protection des données élaborée par l’OIM en 2023.
15. Les technologies de surveillance des personnes migrantes, réfugiées et demandeuses d’asile en transit doivent être réglementées en vue de protéger leurs droits, et la surveillance de masse par l’IA, comme les drones et la reconnaissance faciale, devrait être interdite. L’IA peut être utilisée de manière positive afin de favoriser la mise en place des couloirs humanitaires en utilisant la cartographie des conflits pour identifier des itinéraires de transit plus sûrs.
16. L’Assemblée reconnaît le rôle essentiel de l’eu-LISA (l’Agence de l’Union européenne pour la gestion opérationnelle des systèmes d’information à grande échelle au sein de l’espace de liberté, de sécurité et de justice) et d’autres organes de l’Union européenne dans la gestion des bases de données relatives aux migrations, telles que le Système d’information Schengen (SIS), le Système d’information sur les visas (VIS) et Eurodac (la base de données biométriques centralisée de l'Union européenne). La coopération entre les États membres de l’Union européenne et les États membres du Conseil de l’Europe qui n’en font pas partie est importante pour garantir des normes cohérentes en matière de protection des données et le respect des obligations humanitaires.
17. L’Assemblée exprime une nouvelle fois sa profonde préoccupation et sa tristesse face aux décès de personnes migrantes, réfugiées et demandeuses d’asile en mer. Elle appelle les États membres à utiliser les technologies de l’IA pour renforcer les capacités de recherche et de sauvetage, et à respecter la dignité des personnes décédées, conformément aux principes énoncés dans sa Résolution 2569 (2024) « Personnes migrantes, réfugiées et demandeuses d’asile disparues – Un appel à clarifier leur sort » et sa Résolution 2612 (2025) « Sauver la vie des personnes migrantes en mer et protéger leurs droits humains ».
18. À l’arrivée, l’IA peut être utilisée pour soutenir des procédures d’asile individualisées, équitables et conformes aux droits, sans jamais remplacer le rôle des travailleuses et travailleurs sociaux dans les échanges et la prise de décisions. Les documents générés par l’IA devraient être accessibles dans les langues des personnes demandeuses et en langage clair.
19. Les systèmes biométriques et les outils de reconnaissance linguistique devraient faire l’objet d’audits de biais réguliers afin de garantir un traitement équitable, tandis que les outils de reconnaissance faciale, tels que ceux utilisés dans les tunnels frontaliers intelligents, devraient faire l’objet de tests démographiques afin d’assurer le respect des exigences en matière de non-discrimination et respecter les normes d’audit de l’Union européenne.
20. Les systèmes d’IA utilisés dans le traitement des demandes d’asile devraient être vérifiés et corrigés en ce qui concerne les ensembles de données biaisées afin d’éliminer les variables discriminatoires, et les éléments de preuve générés par l’IA doivent être vérifiés par des humains, avec possibilité de contrôle judiciaire. L’utilisation d’outils tels que la reconnaissance des émotions ou les «détecteurs de mensonges» ne devrait pas être incluse, et les outils prédictifs évaluant la probabilité de fuite ne doivent pas être utilisés pour justifier la détention, en particulier celle des mineurs. Des évaluations d’impact telles que la méthodologie HUDERIA devraient être réalisées avant le déploiement de nouveaux systèmes.
21. Pendant le séjour, conformément à la Résolution 2502 (2023) « Intégration des migrants et des réfugiés: des avantages pour toutes les parties prenantes » de l’Assemblée, les politiques d’intégration inclusives peuvent être soutenues par une utilisation éthique de l’IA, qui peut jouer un rôle majeur en accélérant l’autonomie des personnes migrantes, réfugiées et demandeuses d’asile et en renforçant la résilience des communautés hôtes. Des outils peuvent être développés en collaboration avec les communautés de personnes réfugiées et les ONG et mis à disposition hors ligne (par exemple, les lignes d'assistance téléphonique sans accès à internet) et par le biais d’interfaces vocales afin de réduire les fractures numériques.
22. Les outils de recherche d’emploi pilotés par l’IA devraient donner la priorité à des critères éthiques tels que l’unité familiale et l’adéquation culturelle. Il est essentiel que leur conception tienne compte de la dimension de genre afin d’éviter de renforcer la ségrégation sur le marché du travail qui oriente les femmes vers les secteurs à bas salaires. Des mécanismes de retour d’information continus devraient permettre de remédier aux erreurs de placement. Les audits annuels des systèmes d’IA utilisés pour l’attribution de prestations sociales ou d’un logement sont primordiaux pour détecter et corriger les biais. L’analyse prédictive peut soutenir une planification urbaine équitable, en aidant à prévenir la ségrégation et à favoriser l’innovation et la sécurité dans les différentes communautés.
23. L’Assemblée appelle à créer des organes de contrôle indépendants tels que le Conseil de l’intelligence artificielle de l’Union Européenne, qui seraient composés de représentant·es de la société civile et d’expert·es juridiques et technologiques, et seraient chargés de suivre la mise en œuvre des systèmes d’IA dans la gestion des migrations, de l’asile et des contrôles aux frontières, sur la base des lignes directrices du HCR, de la Convention-cadre du Conseil de l’Europe sur l’IA et des règlements pertinents de l’Union européenne.
24. De solides mécanismes de réparation et d’indemnisation doivent également être mis en place afin de permettre la contestation des éléments générés par l’IA par des voies juridiques rapides. L’aide juridique devrait être étendue aux recours liés aux systèmes algorithmiques.
25. Pour les étapes de la migration circulaire et du retour, les chatbots pilotés par l’IA utilisés dans les programmes d’aide au retour devraient respecter les normes d’équité, éviter les techniques d’incitation et fournir des informations impartiales. Les personnes migrantes, réfugiées et demandeuses d’asile devraient conserver le contrôle de leurs données, pouvoir supprimer ou transférer des informations lorsqu’elles quittent les programmes et bénéficier d’une garantie contre le partage d’informations biométriques avec le pays d’origine. Le partage des données biométriques avec les pays d’origine doit être interdit s’il existe un risque de persécution. Les évaluations des conditions environnementales fondées sur l’IA peuvent aider à déterminer la sécurité des destinations de retour.
26. La réintégration durable nécessite un suivi rigoureux après le retour. Les États devraient mettre en œuvre des évaluations d’impact fondées sur la communauté et des outils d’intelligence artificielle éthiques pour suivre les résultats en matière d’emploi, de logement et de bien-être. Les assistants IA accessibles hors ligne doivent aider les personnes migrantes à s’orienter dans les services de réintégration.
27. Conformément à sa Résolution 2343 (2020) « Prévenir les discriminations résultant de l’utilisation de l’intelligence artificielle », l’Assemblée souligne l’importance d’adopter des mesures spécifiques visant à prévenir la discrimination et les effets négatifs qui touchent de manière disproportionnée certains groupes tels que les femmes, les personnes appartenant à des minorités, ainsi que les personnes les plus vulnérables et marginalisées, notamment les personnes migrantes, réfugiées et demandeuses d’asile.
28. Ce risque de discrimination provoquée par l’IA devrait être pris en compte dès la phase de conception, qui pourrait bénéficier de la participation des organisations de la société civile représentant les personnes migrantes, réfugiées et demandeuses d’asile pour accroître la confiance et la fiabilité. La sensibilisation et la formation des agent·es des services d’asile, des ONG et des développeurs et développeuses d’IA renforceront le déploiement éthique de l’IA.
29. Les États membres doivent prévoir des garanties contre l’utilisation abusive de l’IA à des fins de désinformation, de manipulation ou de cyberattaques exploitant les vulnérabilités en matière de migration. Les menaces géopolitiques, y compris celles liées à l’agression menée par la Fédération de Russie contre l’Ukraine, exigent une vigilance et une résilience accrues dans les cadres de politique migratoire afin d’éviter toute répercussion négative sur la protection offerte.
30. En ce qui concerne le climat général dans l’opinion autour des questions migratoires, les États devraient veiller à ce que les chatbots alimentés par l’IA soient utilisés de manière éthique pour fournir des informations accessibles, précises et multilingues sur la migration, et à ce que ces outils ne soient pas utilisés pour manipuler les discours ou les décisions en matière d’asile. Là encore, il convient de privilégier la conception participative dans le développement de ces chatbots.
31. Pour soutenir les mesures susmentionnées, il est essentiel de sensibiliser et de renforcer les capacités de toutes les parties prenantes publiques et privées – en particulier les autorités et les responsables publics, les développeurs, les petites et moyennes entreprises et les jeunes entreprises d’IA – en matière d’utilisation de l’IA dans la gestion des migrations, conformément aux cadres réglementaires pertinents et à leur mise en œuvre pratique.

B. Projet de recommandation 
			(2) 
			Projet de recommandation
adopté par la commission le 24 juin 2025.

(open)
1. Notant les progrès rapides de l’intelligence artificielle (IA) dans la gestion des migrations comme dans d’autres domaines, l’Assemblée parlementaire recommande au Comité des Ministres d’encourager la signature, la ratification et la mise en œuvre de la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (STCE n° 225, ci-après la «Convention-cadre sur l’IA») par tous les États membres et non membres.
2. À la lumière de la Résolution … (2025) « L’intelligence artificielle et la migration », l’Assemblée exhorte le Comité des Ministres à élaborer une recommandation orientant les États membres dans l’utilisation de l’IA pour la gestion des migrations, qui sera suivie de mesures concrètes donnant la priorité à la transparence, à la responsabilité et à la protection des droits humains.
3. L’Assemblée exhorte le Comité des Ministres à veiller à ce que les instruments politiques liés aux migrations intègrent des garanties solides et applicables et demande l’élaboration d’un code de bonnes pratiques sur l’utilisation de l’IA dans la gestion des migrations et dans les procédures touchant aux droits des personnes migrantes, réfugiées et demandeuses d’asile, qui pourrait faire partie de la recommandation susmentionnée.
4. L’Assemblée recommande au Comité des Ministres de prévoir – au sein du Conseil de l’Europe – des programmes de sensibilisation aux implications de l'IA dans la gestion des migrations destinés aux institutions de médiation et aux organismes de promotion de l’égalité. Ces activités devraient renforcer leur capacité à protéger les droits humains. Des actions similaires de sensibilisation et de formation devraient être mises en œuvre pour les agent·es de l’immigration, les travailleuses et travailleurs sociaux et les ONG ; le programme HELP (Programme européen de formation aux droits de l'homme pour les professionnels du droit) du Conseil de l’Europe et le programme européen pour une Europe numérique peuvent être des instruments utiles à cet égard.
5. L’Assemblée recommande de renforcer la coopération avec l’ensemble des organes et agences compétents de l’Union européenne et des Nations Unies sur l’application de l’IA dans la gestion des migrations. Elle souligne également l’importance de la coopération entre le Conseil de l’Europe et la société civile sur cette question, particulièrement utile pour l’élaboration de tout instrument à venir.

C. Exposé des motifs par M. Petri Honkonen, rapporteur

(open)

1. Introduction

1. Le déploiement de technologies de l’information avancées – en particulier l’intelligence artificielle (IA) – dans les contrôles d’identité, les contrôles aux frontières, le traitement des visas et les demandes d’asile transforme la gestion des migrations dans toute l’Europe. Ces systèmes s’appuient de plus en plus sur de vastes ensembles de données, intégrant souvent des informations collectées auprès de groupes ou de pays spécifiques, et des processus décisionnels façonnés par des modèles algorithmiques. Si l’IA permet de rationaliser les procédures administratives, son application dans le domaine sensible et à haut risque de l’immigration soulève de sérieuses préoccupations en matière de transparence, de responsabilité et de droits fondamentaux. La possibilité d’algorithmes biaisés, conçus pour donner la priorité à certaines données par rapport à d’autres, souligne la nécessité d’un contrôle rigoureux et de solides garanties.
2. L’IA offre l’occasion de moderniser la gestion des migrations et d’en améliorer l’efficacité. Cependant, tout progrès technologique doit s’accompagner d’un engagement ferme en faveur des droits humains et de l’État de droit. Les systèmes d’IA qui présentent un risque élevé de violations des droits humains, tels que la notation sociale, le profilage discriminatoire ou la génération de contenus illicites ou préjudiciables, devraient être interdits. La gouvernance des migrations doit veiller à ce que ces outils n’exacerbent pas les inégalités existantes et ne portent pas atteinte aux droits individuels.
3. Reconnaissant l’urgence et la complexité de ces questions, l’Assemblée parlementaire a adopté une approche proactive. La commission des migrations, des réfugiés et des personnes déplacées m’a nommé rapporteur suite au renvoi à la commission d’une proposition de résolution intitulée « L’intelligence artificielle et la migration » (Doc. 15952) le 29 mai 2024. L’élaboration du présent rapport a donné lieu à des consultations approfondies avec des expert·es universitaires, des représentant·es de la société civile et des agent·es d’organisations internationales 
			(3) 
			Le
3 octobre 2024, à Strasbourg, un échange de vues sur « L’intelligence
artificielle et la migration » s’est tenu lors d’une réunion conjointe
de la sous-commission sur les enfants et les jeunes réfugiés et
migrants et de la sous-commission sur l’intelligence artificielle
et les droits de l’homme, avec la participation de M. Kristian Bartholin,
chef de l’Unité de développement numérique et Secrétaire du Comité
sur l’intelligence artificielle (CAI) du Conseil de l’Europe, Mme Mariam Tartousy,
représentante du Conseil consultatif sur la jeunesse (CCJ), Conseil
de l’Europe (en ligne), Mme Niovi Vavoula,
professeure associée en cyberpolitique à l’université du Luxembourg,
Mme Ludivine Stewart, doctorante et chercheuse
au département de Sciences juridiques de l’Institut universitaire
européen, et M. William Jones, professeur associé, au Royal Holloway
University of London. Le 17 octobre 2024, à Ljubljana, un échange
de vues a eu lieu en commission avec la participation de M. Aleksander Pur,
expert en matière d’IA et de sécurité, République de Slovénie, et
Mme Petra Molnar, directrice associée
du Refugee Law Lab, université de York, et professeure associée
au Berkman Klein Centre for Internet & Society, université de
Harvard (en ligne). Le 27 novembre 2024, j’ai fait un exposé sur « l’IA
et la migration » dans le cadre du séminaire « L’IA et les droits
humains » qui s’est tenu au Parlement de Finlande à Helsinki, puis
j’ai présidé une table ronde sur l’utilisation de l’intelligence
artificielle dans les processus migratoires. Le débat a souligné
la nécessité de faire preuve de vigilance et de mettre en place
de solides garanties juridiques pour empêcher l’utilisation abusive
des systèmes d’IA à haut risque tels que la notation sociale. Le
29 janvier 2025, la commission a tenu un échange de vues avec M. Philippe Harant,
chef de l’unité « Stratégie, capacités et coordination » de l’eu-LISA,
qui a donné un aperçu de l’histoire et de la mission de l’agence,
en soulignant son rôle dans la gestion opérationnelle des principaux
systèmes informatiques européens à partir du siège à Tallinn, en
Estonie. Le 25 février 2025, j’ai tenu une réunion en ligne avec
M. Huanzhang Fu, sous-directeur du Programme d’innovation stratégique,
et Mme Julie Tomaszewski, responsable
de l’innovation et de la technologie, Centre d’innovation, Complexe mondial
d’innovation d’INTERPOL, à Singapour. Le 11 mars 2025, à Paris,
la commission s’est entretenue avec Mme Frida Alizadeh Westerling,
doctorante en droit et technologie de l’asile à l’université d’Helsinki
et participante au projet de recherche Trust-M, et Mme Emilie Wiinblad Mathez,
coordinatrice principale de la protection, Division de la protection
internationale, HCR. Le 6 mai 2025, j’ai effectué une visite d’information
à Frontex, au cours de laquelle j’ai rencontré Jonas Grimheden,
officier aux droits fondamentaux, Grigoris Tsioukas, adjoint à l’officier
des droits fondamentaux, Luana Scarcella, contrôleuse des droits
fondamentaux et cheffe d’équipe FRO.GEO 2, Anita Danka, contrôleuse
des droits fondamentaux et cheffe d’équipe FRO.HORIZON, ainsi qu’Aleksandra Klosinska
et Mara Bottone, contrôleuses des droits fondamentaux auprès de
FRO.HORIZON et FRO.GEO respectivement. J’ai également rencontré M. Denis Destrebecq,
chef par intérim du secteur Recherche et Technologie, Mme Olga Verboncu
(responsable principale dans le même secteur et M. Stavros Panagiotidis,
point de contact adjoint pour le règlement sur l’IA au sein de la
EBCG Academy, ainsi que des représentant·es de l’unité centrale
d’ETIAS: Mme Panagiota Karadimitriou,
cheffe adjointe de l’unité Centre d’assistance, M. Spyridon Argyros,
chef du bureau de gestion des données, M. Ignacio Zozaya, chef du bureau
de gestion des affaires, Mme Antonia Budeanu,
responsable de la conformité et Mme Anna Nehring,
responsable du contrôle des risques. En outre, j’ai examiné des
questions pertinentes avec M. Alexandr Fuchs, chef du secteur des services
de fusion d’Eurosur et M. Zsolt Bartfai, délégué adjoint à la protection
des données. J’ai également rencontré Mme Maria Janyska,
présidente de la commission des affaires administratives et intérieures,
et M. Łukasz Osmalak, membre de la commission de la numérisation,
de l’innovation et de la technologie de la Diète polonaise, ainsi
que des expert·es polonais de l’intelligence artificielle et de
la migration, qui ont partagé leurs perspectives nationales sur
les questions clés abordées dans ce rapport. Je tiens à remercier
tous les contributeurs et toutes les contributrices, ainsi que les
membres de la commission pour leur précieuse contribution et leur
participation tout au long de ce processus.. Il s’agit du premier rapport de l’Assemblée sur cette question.
4. Le terme « intelligence artificielle » désigne les « systèmes qui font preuve d’un comportement intelligent en analysant leur environnement et en prenant des mesures – avec un certain degré d’autonomie – pour atteindre des objectifs spécifiques » 
			(4) 
			Commission européenne:
Deloitte et Direction des affaires intérieures et des migrations, Opportunities and challenges for the use of
artificial intelligence in border control, migration and security.
Volume 1, Main report, Publications Office, 2020, <a href='https://op.europa.eu/en/publication-detail/-/publication/c8823cd1-a152-11ea-9d2d-01aa75ed71a1/language-en'>https://op.europa.eu/en/publication-detail/-/publication/c8823cd1-a152-11ea-9d2d-01aa75ed71a1/language-en</a>. Nous pouvons donc considérer que l’IA est un système capable d’effectuer des tâches que nous considérerions habituellement comme un comportement humain intelligent. Aujourd’hui, les applications de l’IA consistent généralement à reconnaître des modèles, à faire des déductions, à prendre des décisions au cas par cas et à engager une conversation. La quantité de données disponibles pour l’apprentissage des modèles d’IA est plus importante que jamais et continue de croître de manière substantielle. Parallèlement, la démocratisation croissante des algorithmes et des plateformes a créé un écosystème dans lequel les solutions d’IA peuvent être testées et mises en œuvre plus facilement, par un plus grand nombre de personnes et d’organisations 
			(5) 
			Ibid..
5. Ces dernières années, les gouvernements, notamment par l’intermédiaire d’organisations internationales, mettent en place des réglementations sur l’IA afin d’éviter les violations des droits humains tout en garantissant des conditions favorables à l’innovation. Le Conseil de l’Europe a adopté la Convention-cadre sur l'intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (STCE n° 225, ci-après la «Convention-cadre sur l’IA») 
			(6) 
			<a href='https://www.coe.int/fr/web/artificial-intelligence/la-convention-cadre-sur-l-intelligence-artificielle'>La
Convention-cadre sur l’intelligence artificielle — Intelligence
artificielle (coe.int)</a>.. De plus, la récente législation de l’Union européenne (UE) dans ce domaine, notamment le règlement européen sur l’intelligence artificielle et le règlement européen sur les services numériques, aura une incidence sur l’utilisation de l’IA dans la gestion des migrations 
			(7) 
			<a href='https://www.europarl.europa.eu/topics/fr/article/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle'>Loi
sur l’IA de l’UE: première réglementation de l’intelligence artificielle
| Thèmes | Parlement européen (europa.eu)</a>.. Nous devrions également prendre en considération la recommandation de l’Organisation des Nations Unies pour l'Éducation, la Science et la Culture (UNESCO) sur l’éthique de l’intelligence artificielle 
			(8) 
			<a href='https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre'>Recommandation
sur l’éthique de l’intelligence artificielle — UNESCO Bibliothèque
numérique</a>., ainsi que les principes de l’Organisation de coopération et de développement économiques (OCDE) en matière d’IA 
			(9) 
			<a href='https://www.oecd.org/fr/themes/principes-de-l-ia.html'>Principes
de l’IA | OCDE</a>..
6. Dans mon pays, la Finlande, l’impact de l’IA sur les droits humains en général, et sur les droits des personnes migrantes, réfugiées et déplacées en particulier, a été récemment au centre des discussions lors du séminaire qui s’est tenu à Helsinki le 27 novembre 2024. La ministre finlandaise des Affaires étrangères, Mme Elina Valtonen, a souligné l’importance de la Convention-cadre du Conseil de l’Europe sur l’IA qu’elle considère comme une étape importante pour une gouvernance responsable de l’IA et pour le renforcement de la protection des droits individuels à l’ère numérique. Elle a précisé qu’une réglementation claire sur l’IA favoriserait l’innovation, affirmant que l’intelligence artificielle éthique n’était pas un obstacle au développement, mais le fondement d’une innovation durable et à long terme. Organisé à l’initiative de Mme Miapetra Kumpula-Natri, présidente de la délégation finlandaise auprès de l’Assemblée, le séminaire a offert un espace d’échange entre expert·es et parlementaires au sujet des répercussions de l’IA sur les droits humains, la démocratie et l’État de droit. M. Tarmo Jukarainen, du Service finlandais de l’immigration (FIS), y a présenté les avancées en matière d’automatisation des procédures migratoires en Finlande, indiquant que l’IA serait déployée progressivement après des évaluations des risques approfondies. L’événement a également mis en évidence le rôle essentiel de l’éducation, qui permet aux générations futures d’acquérir les compétences nécessaires pour concevoir et utiliser les outils d’IA de manière responsable.
7. Dans le domaine de la gestion des migrations, le champ d’application de l’intelligence artificielle est très large. Les systèmes d’IA sont utilisés pour l’authentification des documents, le traitement des langues (par exemple, transcription de la parole en texte, traduction automatique), la reconnaissance vocale, l’identification des dialectes, la reconnaissance d’images, l’analyse avancée et l’apprentissage approfondi, l’automatisation des processus, la communication d’informations par le biais de chatbots, la recherche d’informations sur les pays d’origine, la prévision des tendances en matière de migration et d’asile, et la prestation de services de santé pour les personnes migrantes, réfugiées et demandeuses d’asile par le biais de la télémédecine.
8. Étant donné que l’immigration en Europe est largement influencée par la législation de l’UE, ce rapport tient compte de l’évolution de la situation dans l’UE. Le règlement européen sur l’IA indique que « les systèmes d’IA utilisés dans les domaines de la migration, de l’asile et de la gestion des contrôles aux frontières touchent des personnes qui se trouvent souvent dans une situation particulièrement vulnérable et qui sont tributaires du résultat des actions des autorités publiques compétentes. L’exactitude, la nature non discriminatoire et la transparence des systèmes d’IA utilisés dans ces contextes sont donc particulièrement importantes pour garantir le respect des droits fondamentaux des personnes concernées, en particulier leurs droits à la libre circulation, à la non-discrimination, à la protection de la vie privée et des données à caractère personnel, à une protection internationale et à une bonne administration ».
9. Ce règlement indique également « qu’il convient donc de classer comme étant à haut risque, dans la mesure où leur utilisation est autorisée par le droit de l’Union et le droit national applicables, les systèmes d’IA destinés à être utilisés par les autorités publiques compétentes ou pour leur compte ou par les institutions, organes et organismes de l’Union chargés de tâches dans les domaines de la migration, de l’asile et de la gestion des contrôles aux frontières » 
			(10) 
			JO L du 12.7.2024 FR
ELI: <a href='http://data.europa.eu/eli/reg/2024/1689/oj'>http://data.europa.eu/eli/reg/2024/1689/oj</a>; La migration est l’un des systèmes d’IA à haut risque
visés à l’article 6, paragraphe 2, du règlement européen sur l’IA
(voir son annexe III). D’autres domaines sont abordés dans cet article,
notamment la «biométrie»..
10. En outre, «les systèmes d’IA ne devraient en aucun cas être utilisés par les États membres ou les institutions, organes ou organismes de l’Union dans les domaines de la migration, de l’asile et de la gestion des contrôles aux frontières comme moyen de contourner les obligations internationales qui leur incombent en vertu de la convention des Nations unies relative au statut des réfugiés, signée à Genève le 28 juillet 1951, telle que modifiée par le protocole du 31 janvier 1967. Ils ne devraient pas non plus être utilisés pour enfreindre de quelque manière que ce soit le principe de non-refoulement ou pour refuser des voies d’accès légales sûres et effectives au territoire de l’Union, y compris le droit à la protection internationale» 
			(11) 
			Ibid..
11. Enfin, « les systèmes d’IA à haut risque devraient être conçus et développés de manière à ce que des personnes physiques puissent superviser leur fonctionnement et veiller à ce qu’ils sont utilisés comme prévu et à ce que leurs incidences sont prises en compte tout au long de leur cycle de vie. À cette fin, des mesures appropriées de contrôle humain devraient être établies par le fournisseur du système avant sa mise sur le marché ou sa mise en service. En particulier, le cas échéant, de telles mesures devraient garantir que le système est soumis à des contraintes opérationnelles intégrées qui ne peuvent pas être ignorées par le système lui-même, que le système répond aux ordres de l’opérateur humain et que les personnes physiques auxquelles le contrôle humain a été confié ont les compétences, la formation et l’autorité nécessaires pour s’acquitter de ce rôle » 
			(12) 
			Règlement européen
sur l’IA, paragraphe 71..

2. Les risques associés à l’utilisation de l’IA dans la gestion des migrations

12. Le déploiement rapide de l’intelligence artificielle aux fins de gestion des migrations présente des risques importants pour les droits humains et les libertés fondamentales. Le manque de transparence, la complexité des algorithmes et la compréhension limitée du public – en particulier parmi les populations migrantes vulnérables – réduisent la capacité à remettre en question ou à contester les décisions fondées sur l’IA. Compte tenu de cette opacité, il est indispensable de disposer de mécanismes solides permettant d’obliger les responsables à rendre des comptes.
13. Selon l’Agence des droits fondamentaux de l’UE, l’utilisation de l’IA peut avoir des effets sur des droits essentiels comme la dignité humaine, la non discrimination, l’accès à la justice et la bonne administration. Des garanties effectives et des mécanismes de recours accessibles doivent être mis en place pour que les personnes lésées par des décisions de l’IA puissent les contester et savoir qui en porte la responsabilité 
			(13) 
			«Getting the future
right – Artificial Intelligence and fundamental rights». FRA, 2020: <a href='https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights'>https://fra.europa.eu/en/publication/2020/artificial-intelligence-and-fundamental-rights</a>..
14. Avant de déployer l’IA dans le cadre des procédures d’asile, les États devraient réaliser des évaluations d’impact sur les droits humains, la démocratie et l’État de droit, en utilisant des outils comme la méthodologie HUDERIA du Conseil de l’Europe pour réduire des risques comme les biais, les atteintes à la vie privée et la discrimination 
			(14) 
			Petra Molnar et Lex
Gill. « Bots at the Gate: A Human Rights Analysis of Automated Decision-Making
in Canada’s Immigration and Refugee System », Citizen Lab and International
Human Rights Program (faculté de droit, université de Toronto),
rapport de recherche n° 114, université de Toronto, septembre 2018.
Voir: <a href='https://citizenlab.ca/2018/09/bots-at-the-gate-human-rights-analysis-automated-decision-making-in-canadas-immigration-refugee-system/'>https://citizenlab.ca/2018/09/bots-at-the-gate-human-rights-analysis-automated-decision-making-in-canadas-immigration-refugee-system/</a>.. En outre, le règlement sur l’IA de l’UE exige que les organismes publics et les prestataires de services privés évaluent l’impact sur les droits fondamentaux avant d’utiliser des systèmes d’IA à haut risque, bien que l’application de ces dispositions reste limitée 
			(15) 
			« À
cette fin, les déployeurs effectuent une analyse comprenant: a)
une description des processus du déployeur dans lesquels le système
d’IA à haut risque sera utilisé conformément à sa destination; b)
une description de la période pendant laquelle et de la fréquence
à laquelle chaque système d’IA à haut risque est destiné à être
utilisé; c) les catégories de personnes physiques et les groupes
susceptibles d’être concernés par son utilisation dans le contexte spécifique;
d) les risques spécifiques de préjudice susceptibles d’avoir une
incidence sur les catégories de personnes physiques ou groupes de
personnes identifiés en vertu du point c) du présent paragraphe,
compte tenu des informations fournies par le fournisseur conformément
à l’article 13; e) une description de la mise en œuvre des mesures
de contrôle humain, conformément à la notice d’utilisation; f) les
mesures à prendre en cas de matérialisation de ces risques, y compris
les dispositifs relatifs à la gouvernance interne et aux mécanismes
de plainte internes. » JO L du 12.7.2024 FR ELI: <a href='http://data.europa.eu/eli/reg/2024/1689/oj'>http://data.europa.eu/eli/reg/2024/1689/oj</a>.. Les risques en matière de droits humains, notamment en ce qui concerne la vie privée et la discrimination, ne sont pas suffisamment pris en compte à ce stade.
15. Vu l’importance d’évaluer les technologies d’IA, les organismes de promotion de l’égalité doivent être dotés des ressources nécessaires, conformément à l’article 77 du règlement européen sur l’IA, afin de détecter les biais, de surveiller les usages détournés ou secondaires des données, et de prévenir les effets négatifs que de telles pratiques pourraient avoir sur le traitement des demandes d’asile 
			(16) 
			Cela a été souligné
le 11 mars 2025 par Mme Frida Alizadeh
Westerling devant la commission..
16. Le Groupe de rédaction sur les droits humains et l’intelligence artificielle (CDDH-IA) du Conseil de l’Europe avertit que l’IA peut entraîner une discrimination directe et intersectionnelle, notamment lors de l’utilisation de techniques biométriques comme la reconnaissance faciale. Ces systèmes fonctionnent souvent comme des «boîtes noires» en raison de la protection du secret commercial, ce qui masque leurs erreurs et rend difficile d’établir les responsabilités. La chercheuse A. Beduschi met en garde contre le fait qu’une confiance aveugle dans l’IA pourrait entraîner de graves violations des droits humains, telles que des erreurs d’identification, des détentions injustifiées ou des refoulements vers des pays où les personnes seraient exposées à des risques de mauvais traitements 
			(17) 
			Beduschi, A., International migration management in the age
of artificial intelligence in Migration Studies, volume 9, numéro 3,
septembre 2021, pages 576–596. Voir: <a href='https://academic.oup.com/migration/article/9/3/576/5732839'>https://academic.oup.com/migration/article/9/3/576/5732839</a>..
17. En raison de leurs algorithmes, les technologies d’IA ne sont pas fiables à 100 %. À titre d’exemple, on peut citer le projet iBorder Control, financé par l’UE, qui utilise l’analyse biométrique et comportementale et qui est susceptible de donner lieu à des évaluations erronées, ainsi que le logiciel allemand de translittération TraLitA, qui a des difficultés avec les dialectes arabes non levantins, ce qui peut désavantager les candidat·es qui parlent ces dialectes 
			(18) 
			McGregor, L. et Molnar,
P. (2023), Digital Border Governance:
A Human Rights Based Approach, rapport du Haut-Commissariat
des Nations Unies aux droits de l’homme et de l’université d’Essex.
Voir: <a href='https://www.ohchr.org/en/documents/tools-and-resources/digital-border-governance-human-rights-based-approach'>www.ohchr.org/en/documents/tools-and-resources/digital-border-governance-human-rights-based-approach</a>.. Ces cas illustrent le danger des erreurs de modélisation algorithmique et des biais de données 
			(19) 
			Rapport de la Rapporteuse
spéciale sur les formes contemporaines de racisme, de discrimination
raciale, de xénophobie et de l’intolérance qui y est associée (10 novembre 2020),
ONU doc A/75/590. Voir: <a href='https://www.ohchr.org/fr/special-procedures/sr-racism/annual-thematic-reports-special-rapporteur-contemporary-forms-racism'>www.ohchr.org/fr/special-procedures/sr-racism/annual-thematic-reports-special-rapporteur-contemporary-forms-racism</a>..
18. En outre, les systèmes d’IA peuvent révéler involontairement des caractéristiques protégées, lors de l’analyse de la parole, des traits du visage ou de données numériques, ce qui accroît le risque de profilage discriminatoire. À cause de ces abus, des personnes peuvent se voir refuser un visa ou l’entrée sur le territoire, ce qui peut porter atteinte au droit à la liberté de circulation prévu à l’article 2 du Protocole n° 4 à la Convention européenne des droits de l’homme. Or, l’exercice de ce droit ne peut être restreint qu’à des fins légitimes et de manière proportionnée à l’intérêt public 
			(20) 
			De
Tommaso c. Italie [GC], n° 43395/09, 23 février 2017,
§ 104; Pagerie c. France,
n° 24203/16, 12 janvier 2023, § 171; Battista
c. Italie, n° 43978/09, 2 décembre 2014, § 37; Khlyustov c. Russie, n° 28975/05,
11 juillet 2013, § 64; Labita c. Italie [GC],
n° 26772/95, 6 avril 2000, §§ 194-195..
19. La fracture numérique reste une préoccupation majeure, nombre de personnes migrantes, réfugiées et demandeuses d’asile manquant des compétences nécessaires pour comprendre et utiliser les systèmes d’IA. Faute d’être conçus avec soin, ces systèmes risquent de renforcer les inégalités structurelles au lieu de les réduire. Afin de contrebalancer les préjugés humains et ceux de l’IA, il faut que les agent·es de première ligne reçoivent une formation spécialisée et que le développement et le déploiement de l’IA fassent l’objet d’une surveillance rigoureuse.
20. Enfin, le rythme des progrès technologiques, combiné à la dépendance croissante à l’égard des outils numériques, crée de nouvelles vulnérabilités, qui peuvent être exploitées par des acteurs hybrides. Ainsi que le souligne FRONTEX dans l’édition 2024 de son rapport d’analyse stratégique des risques, des technologies comme le système d’entrée/sortie (EES) et le système européen d’information et d’autorisation de voyage (ETIAS) renforcent la gestion intégrée des frontières européennes, mais exposent aussi des infrastructures critiques aux cyberattaques et aux menaces hybrides.
21. Le recours à des chaînes d’approvisionnement complexes, opaques et souvent peu régulées exacerbe encore ces risques. En outre, les nouvelles technologies – notamment les drones et les applications de cartographie – permettent d’employer de nouvelles méthodes de facilitation des migrations. Dans un environnement numérique hyperconnecté, la propagation de la désinformation via les médias sociaux sape la confiance du public, influence les processus démocratiques et amplifie l’impact sociétal des migrations, ce qui rend de plus en plus difficile la distinction entre les informations factuelles et les récits manipulés 
			(21) 
			<a href='C:\Users\garabagiu\ND Office Echo\DE-7TO1X6K0\www.frontex.europa.eu\assets\Publications\Risk_Analysis\Risk_Analysis\Strategic_Risk_Analysis_2024_Report.pdf'>www.frontex.europa.eu/assets/Publications/Risk_Analysis/Risk_Analysis/Strategic_Risk_Analysis_2024_Report.pdf</a>.. FRONTEX met en garde contre certaines situations où la technologie est utilisée pour dissocier physiquement les passeurs de leurs clients, ce qui leur permet d’opérer en dehors du champ d’action des services répressifs de l’UE. Cette dissociation s’observe aussi dans le domaine des technologies de l’information, notamment par l’utilisation de systèmes de chiffrement 
			(22) 
			Ibid..

3. Les possibilités offertes par l’intelligence artificielle en matière de gestion des migrations

22. L’Organisation internationale pour les migrations (OIM) constate que l’expérience migratoire se structure généralement en plusieurs phases: la préparation au départ, le transit, l’arrivée, le séjour, la migration circulaire et le retour, ainsi que l’intégration ou la réintégration durables 
			(23) 
			<a href='https://emm.iom.int/handbooks/global-context-international-migration/phases-migration-0'>https://emm.iom.int/handbooks/global-context-international-migration/phases-migration-0#:~:text=The%20phases%20begin%20with%20pre,and%20sustainable%20(re)integration</a>.. Pour gérer les mouvements mixtes des personnes migrantes, réfugiées et demandeuses d’asile, le Haut-Commissariat des Nations Unies pour les réfugiés (HCR) promeut une approche globale, fondée sur les itinéraires et centrée sur trois objectifs principaux: sauver des vies et réduire les préjudices; fournir une protection précoce et des solutions pour décourager les voyages dangereux; et aider les États à gérer ces mouvements dans le respect du droit international 
			(24) 
			A <a href='https://www.unhcr.org/sites/default/files/2024-10/explainer_unhcr_route_based_approach.pdf'>route-based
approach</a>.. Ces actions reposent sur la Convention de 1951 relative au statut des réfugiés et son protocole de 1967 («Convention relative au statut des réfugiés»), qui consacrent le principe de la protection internationale. Les instruments relatifs aux droits humains énoncent l’obligation de traiter toutes les personnes, y compris les personnes migrantes, réfugiées et demandeuses d’asile, avec dignité et de garantir leurs droits 
			(25) 
			Cela a été rappelé
par Mme Emilie Wiinblad Mathez (HCR) lors d’un échange de vues avec
la commission le 11 mars 2025 à Paris. . D’autres engagements pris par les États figurent dans le Pacte mondial sur les réfugiés et dans le Pacte mondial pour des migrations sûres, ordonnées et régulières 
			(26) 
			<a href='https://www.unhcr.org/fr/en-bref/qui-nous-sommes/le-pacte-mondial-sur-les-refugies'>Pacte
mondial sur les réfugiés</a> et <a href='https://docs.un.org/fr/A/RES/73/195'>Pacte mondial pour
des migrations sûres, ordonnées et régulières</a>..
23. En s’appuyant sur la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle, le règlement sur l’IA de l’UE et les cadres d’orientation élaborés par le HCR, l’OIM et l’OCDE, l’Assemblée est en mesure de formuler des recommandations concrètes visant à garantir que le déploiement de l’IA dans le domaine des migrations respecte pleinement les normes relatives aux droits humains, les principes éthiques, les exigences de transparence et l’obligation de rendre des comptes. De l’étape préalable au départ jusqu’à la réintégration durable, les États membres doivent veiller à instaurer des garanties contre les biais, à assurer une supervision humaine des systèmes d’IA, et à préserver la dignité des personnes migrantes, réfugiées et demandeuses d’asile.

3.1. L’étape préalable au départ

24. Avant d’émigrer à l’étranger, les candidat·es au départ doivent souvent franchir des étapes administratives, juridiques et logistiques complexes. Les mesures prises au cours de la phase précédant le départ varient considérablement (selon que la préparation est longue ou le déplacement soudain). Elles peuvent être l’occasion d’utiliser l’IA pour favoriser une gestion des migrations fondée sur les droits.
25. Pour garantir le respect des droits humains à ce stade, il faut réaliser des évaluations d’impact rigoureuses avant de déployer l’IA. Il faut établir des procédures de présélection transparentes pour les visas et les demandes d’asile, et les outils comme le système ETIAS de l’UE doivent être assortis de garanties, telles qu’une révision manuelle obligatoire des alertes à haut risque générées par l’IA. Les chatbots alimentés par l’IA qui donnent des informations avant le départ (comme ceux qui sont testés dans certains pays de l’OCDE) doivent indiquer leurs limites pour éviter la diffusion de fausses informations.
26. L’IA offre également la possibilité de faciliter les migrations de travail légales, grâce à des systèmes qui permettent d’obtenir à l’avance des permis de travail et de séjour. Des outils comme SkillMap (développé par SkillLab) aident à repérer des pratiques de recrutement abusives en analysant les données des employeurs et les offres d’emploi 
			(27) 
			<a href='https://hias.org/news/trying-to-help-refugees-into-the-workplace-now-theres-an-app-for-that/'>https://hias.org/news/trying-to-help-refugees-into-the-workplace-now-theres-an-app-for-that/</a>; 
			(27) 
			<a href='https://www.weforum.org/stories/2023/01/ai-in-migration-is-fuelling-global-inequality-how-can-we-bridge-gap/'>www.weforum.org/stories/2023/01/ai-in-migration-is-fuelling-global-inequality-how-can-we-bridge-gap/</a>. L’«Initiative 1» de l’UE sur l’utilisation de l’IA dans les procédures de demande de visa doit permettre de gagner en efficacité et d’améliorer la sécurité intérieure de l’espace Schengen grâce à des contrôles d’antécédents automatisés.
27. Ainsi que le souligne la Résolution 2401 (2021) de l’Assemblée « Climat et migrations », l’IA peut aussi servir à établir, de manière éthique, des prévisions en matière de migrations liées aux changements climatiques, en utilisant les données climatiques et socio-économiques pour anticiper les schémas de déplacement et orienter les réponses humanitaires – au lieu d’être utilisées pour justifier des politiques restrictives de contrôle des frontières 
			(28) 
			Résolution 2401 (2021) «Climat et migrations»..
28. L’IA joue un rôle dans la lutte contre les réseaux de passeurs, grâce à des outils qui analysent les activités sur le dark web (l’internet clandestin) et les flux financiers: par exemple, dans le projet PROMENADE de l’UE, l’apprentissage automatique est utilisé pour suivre les mouvements des navires. Toutefois, pour éviter les abus, il faut veiller à ce que ces technologies respectent les normes des droits humains, conformément à la méthodologie HUDERIA du Conseil de l’Europe 
			(29) 
			<a href='https://home-affairs.ec.europa.eu/news/eu-backed-projects-contribute-countering-migrant-smuggling-ai-2024-12-18_en'>https://home-affairs.ec.europa.eu/news/eu-backed-projects-contribute-countering-migrant-smuggling-ai-2024-12-18_en</a>; 
			(29) 
			<a href='https://www.coe.int/fr/web/artificial-intelligence/cai'>https://www.coe.int/fr/web/artificial-intelligence/cai</a>..
29. Les outils de vérification de l’éligibilité aux visas (comme OpenSphere.ai) doivent régulièrement faire l’objet d’audits de biais, et respecter la transparence du processus décisionnel, pour que les décisions puissent être contestées. La protection des données et la non-discrimination doivent rester des principes directeurs, notamment lorsque l’IA est utilisée pour analyser des données biométriques ou des schémas comportementaux 
			(30) 
			<a href='https://opensphere.ai/immigration-resources/ai-powered-visa-eligibility-checkers-streamlining-immigration-processes'>https://opensphere.ai/immigration-resources/ai-powered-visa-eligibility-checkers-streamlining-immigration-processes</a>; 
			(30) 
			<a href='https://www.statewatch.org/news/2025/january/eu-human-rights-must-be-central-guiding-basis-for-new-ai-guidelines/'>www.statewatch.org/news/2025/january/eu-human-rights-must-be-central-guiding-basis-for-new-ai-guidelines/</a>; <a href='https://opensphere.ai/'>OpenSphere
– AI-Powered Immigration Assistance</a>..
30. Les chatbots alimentés par l’IA sont de plus en plus utilisés à travers l’Europe pour l’assistance multilingue lors d’une demande de visa, la prise de rendez-vous et les conseils juridiques. L’on peut citer, par exemple, Visabot aux États-Unis, Kamu en Finlande et AsyLex en Suisse, qui favorisent l’accès à la justice pour les personnes en demande d’asile. Des pays comme la Türkiye et le Royaume-Uni ont mis en place des systèmes de visa électronique en ligne qui intègrent des fonctions d’IA permettant de faire un premier tri entre les demandes standard et les demandes «à risque». Ces dernières sont transmises aux agent·es des services d’immigration pour un examen plus approfondi 
			(31) 
			European
Migration Network (2022). «The use of digitalisation and artificial
intelligence in migration management»: Joint EMN-OECD Inform. Commission
européenne. Voir: <a href='https://emn.ie/publications/the-use-of-digitalisation-and-artificial-intelligence-in-migration-management/'>https://emn.ie/publications/the-use-of-digitalisation-and-artificial-intelligence-in-migration-management/</a>.. Les outils d’IA contribuent à réduire les charges administratives et à soutenir les groupes marginalisés, à condition qu’ils soient assortis de garanties éthiques et puissent être utilisés hors ligne.
31. Les chatbots servent aussi à lutter contre la désinformation et contre le trafic illicite de personnes migrantes. Des outils comme ACME utilisent des techniques d’argumentation automatisée pour corriger les idées reçues sur les migrations, tandis que des outils d’analyse prédictive aident les personnes migrantes, réfugiées et demandeuses d’asile à développer leurs compétences et à choisir leur destination. Cependant, les pouvoirs publics doivent s’employer davantage à contrer les faux récits et l’utilisation abusive de l’IA, en veillant à ce que l’innovation renforce – au lieu de compromettre – la protection des personnes migrantes et la dignité humaine, comme le soulignent les lignes directrices de l’UE en matière d’éthique pour une IA digne de confiance et les principes pour l’utilisation éthique de l’IA dans le système des Nations Unies 
			(32) 
			<a href='https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai'>Ethics
guidelines for trustworthy AI | Shaping Europe’s digital future</a> et <a href='https://unsceb.org/sites/default/files/2022-09/Principles for the Ethical Use of AI in the UN System_1.pdf'>Principles
for the Ethical Use of AI in the UN System</a>.

3.2. L’étape du transit

32. Pour les personnes migrantes, l’étape du transit est souvent complexe et prolongée, à cause de multiples déplacements, de retards dus à des conflits, de contrôles renforcés aux frontières, ou du manque de ressources. Certaines se retrouvent bloquées: elles ne peuvent ni retourner chez elles, ni régulariser leur situation, ni poursuivre leur parcours migratoire par des voies légales.
33. Au cours de l’étape de transit, les outils d’IA doivent être utilisés avec prudence et dans le respect des droits humains 
			(33) 
			<a href='https://www.consilium.europa.eu/en/policies/artificial-intelligence/'>www.consilium.europa.eu/en/policies/artificial-intelligence/</a>; 
			(33) 
			<a href='https://www.europarl.europa.eu/RegData/etudes/IDAN/2021/690706/EPRS_IDA(2021)690706_FR.pdf'>www.europarl.europa.eu/RegData/etudes/IDAN/2021/690706/EPRS_IDA(2021)690706_FR.pdf</a>.. Les États devraient éviter de déployer des technologies de reconnaissance des émotions et de prévision policière, à moins que cela ne soit strictement nécessaire à la sécurité nationale, et ils doivent interdire les systèmes qui limitent la liberté de circulation par le biais d’analyses basées sur des suppositions. Des outils comme iSentry devraient servir uniquement à la détection de menaces vérifiables, telles que le trafic illicite de personnes migrantes, et non à un profilage comportemental généralisé 
			(34) 
			<a href='https://www.europarl.europa.eu/RegData/etudes/IDAN/2021/690706/EPRS_IDA(2021)690706_FR.pdf'>Idem</a>; <a href='https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4953245'>https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4953245</a>..
34. Le partage transfrontalier de données devrait être sécurisé et fondé sur les droits. Des systèmes comme EUROSUR doivent garantir le chiffrement des données biométriques et en limiter l’accès aux seules entités autorisées. La «politique de protection des données» adoptée par l’OIM en 2023 définit un cadre pour partager en toute sécurité des données anonymisées sur les flux migratoires 
			(35) 
			<a href='https://publications.iom.int/system/files/pdf/pub2024-033-l-return-reintegration-2023-highlights_1.pdf'>https://publications.iom.int/system/files/pdf/pub2024-033-l-return-reintegration-2023-highlights_1.pdf</a>; 
			(35) 
			<a href='https://www.oecd.org/migration/mig/EMN-OECD-INFORM-FEB-2022-The-use-of-Digitalisation-and-AI-in-Migration-Management.pdf'>www.oecd.org/migration/mig/EMN-OECD-INFORM-FEB-2022-The-use-of-Digitalisation-and-AI-in-Migration-Management.pdf</a>.
35. L’utilisation des technologies de surveillance dans les zones de transit doit être soigneusement réglementée. La surveillance de masse par l’IA – qui recourt, par exemple, à la reconnaissance faciale ou à des drones, et qui est utilisée sur des sites comme le littoral calaisien – porte souvent atteinte à la vie privée et a un effet dissuasif sur les personnes en demande d’asile 
			(36) 
			<a href='https://inkstickmedia.com/for-migrants-artificial-intelligence-becomes-a-roadblock-to-europe/'>https://inkstickmedia.com/for-migrants-artificial-intelligence-becomes-a-roadblock-to-europe/</a>.. La Convention-cadre du Conseil de l’Europe sur l’IA interdit le recours à la catégorisation biométrique dans les contextes migratoires, sauf s’il est strictement nécessaire et proportionné 
			(37) 
			<a href='https://www.coe.int/fr/web/artificial-intelligence/work-in-progress'>www.coe.int/fr/web/artificial-intelligence/work-in-progress</a>; 
			(37) 
			<a href='https://edoc.coe.int/fr/intelligence-artificielle/11925-convention-cadre-du-conseil-de-leurope-sur-lintelligence-artificielle-et-les-droits-de-lhomme-la-democratie-et-letat-de-droit.html'>https://edoc.coe.int/fr/intelligence-artificielle/11925-convention-cadre-du-conseil-de-leurope-sur-lintelligence-artificielle-et-les-droits-de-lhomme-la-democratie-et-letat-de-droit.html</a>..
36. Lors d’un échange de vues tenu le 17 octobre 2024 à Ljubljana, Mme Petra Molnar a observé que les espaces où se trouvent des personnes réfugiées servent souvent à expérimenter de nouvelles technologies dans des environnements peu réglementés. Elle a critiqué l’écosystème fondé sur la peur qui criminalise les migrations et légitime les refoulements et a expliqué que cette situation est souvent aggravée par le déploiement d’outils de surveillance fondés sur l’IA et d’outils de prise de décision automatisée.
37. Par ailleurs, l’IA peut soutenir les efforts humanitaires pendant le transit. Par exemple, des systèmes d’IA peuvent aider à concevoir des couloirs humanitaires sûrs en analysant les données en temps réel relatives au conflit. La «Stratégie de transformation numérique» du HCR souligne l’importance du consentement et de la minimisation des données lors du déploiement de ces outils 
			(38) 
			<a href='https://www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf'>www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf</a>; 
			(38) 
			<a href='https://ai4good.org/eureka/'>https://ai4good.org/eureka/</a>.. Toutefois, ainsi que l’a constaté le Groupe de travail des Nations Unies sur l’utilisation de mercenaires, il y a eu des cas d’utilisation abusive: par exemple, des drones ont servi, non pas à faciliter des opérations de sauvetage, mais à renvoyer des personnes migrantes, réfugiées et demandeuses d’asiles vers des pays où elles risquaient d’être victimes de violations graves des droits humains 
			(39) 
			McGregor,
L. et Molnar, P. (2023), «Digital Border Governance: A Human Rights
Based Approach», rapport du Haut-Commissariat des Nations Unies
aux droits de l’homme et de l’université d’Essex. Voir: <a href='https://www.ohchr.org/en/documents/tools-and-resources/digital-border-governance-human-rights-based-approach'>www.ohchr.org/en/documents/tools-and-resources/digital-border-governance-human-rights-based-approach</a>..
38. Des outils novateurs comme le chatbot Aurora proposent aux personnes migrantes des mises à jour en temps réel sur les itinéraires sûrs, les procédures aux frontières et l’aide humanitaire; grâce au multimédia, l’illettrisme n’est pas un obstacle à l’utilisation de cet outil 
			(40) 
			<a href='https://www.migrationdataportal.org/did-profile/aurora-chatbot-empowering-transit-migrants-reliable-information-and-humanitarian-aid'>www.migrationdataportal.org/did-profile/aurora-chatbot-empowering-transit-migrants-reliable-information-and-humanitarian-aid</a>; 
			(40) 
			<a href='https://www.data4sdgs.org/festivaldedatos/use-chatbots-improve-humanitarian-response'>www.data4sdgs.org/festivaldedatos/use-chatbots-improve-humanitarian-response</a>.. En Amérique latine, Aurora compte plus de 1 000 utilisateurs et utilisatrices par mois dans des pays comme la Colombie et le Panama. Des applications d’IA axées sur les situations d’urgence et sur la santé soutiennent aussi les personnes migrantes en transit. Ainsi, le chatbot Karim propose un accompagnement en santé mentale au moyen d’exercices de thérapie cognitivo-comportementale dans les langues natales des personnes migrantes; au Mexique, une application dotée d’un bouton d’appel d’urgence utilise l’IA pour géolocaliser les personnes migrantes placées en détention et activer une intervention consulaire 
			(41) 
			<a href='https://qudata.com/en/ai-ml-case-studies/an-ai-driven-chatbot-for-refugees-helplines/'>https://qudata.com/en/ai-ml-case-studies/an-ai-driven-chatbot-for-refugees-helplines/</a>.

3.3. L’étape de l’arrivée

39. Les personnes qui empruntent des voies officielles de migration font généralement l’objet d’un contrôle à un poste-frontière. Un visa en cours de validité ne garantit pas l’entrée sur le territoire. En effet, les autorités chargées du contrôle aux frontières peuvent refuser l’entrée, notamment si elles soupçonnent que le visa pourrait avoir été obtenu de manière frauduleuse, si elles identifient des menaces pour la sécurité nationale ou pour la santé publique, ou si elles estiment que la situation a changé depuis la délivrance du visa. Les personnes migrantes, réfugiées et demandeuses d’asile qui font une tentative d’entrée irrégulière sont soumises à une procédure de recevabilité, et celles qui sont interceptées après leur entrée peuvent faire l’objet d’un retour volontaire ou d’une mesure d’éloignement. Les dossiers concernant des personnes demandeuses d’asile ou mineures sont particulièrement sensibles: ils requièrent des évaluations plus nuancées à cause du risque accru de violations des droits humains en cas de retour.
40. Lors de l’étape de l’arrivée, il faut veiller à ce que les systèmes d’IA appliqués aux procédures d’asile soient centrés sur la personne 
			(42) 
			<a href='https://www.ein.org.uk/news/home-office-expand-ai-use-asylum-decision-making-after-promising-pilot-results'>www.ein.org.uk/news/home-office-expand-ai-use-asylum-decision-making-after-promising-pilot-results</a>; 
			(42) 
			<a href='https://www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf'>www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf</a>.. La prise de décision automatisée doit être limitée et les décisions doivent rester sous la responsabilité d’êtres humains. L’IA peut faciliter des tâches administratives (en résumant les entretiens d’asile, par exemple), mais la décision finale ne doit pas être déléguée à des algorithmes. La Convention-cadre du Conseil de l’Europe sur l’IA exige la création de mécanismes de contrôle juridictionnel permettant aux personnes demandeuses d’asile de contester les éléments de preuve générés par l’IA, tels que les analyses linguistiques ou les évaluations de crédibilité 
			(43) 
			<a href='https://worldmigrationreport.iom.int/sites/g/files/tmzbdl1691/files/documents/Ch11-key-findings_final.pdf'>https://worldmigrationreport.iom.int/sites/g/files/tmzbdl1691/files/documents/Ch11-key-findings_final.pdf</a>; 
			(43) 
			<a href='https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4953245'>https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4953245</a>.. L’Agence de l’Union européenne pour l’asile (AUEA) a mis au point un outil appelé LADO (Language Assessment for Determination of Origin), qui utilise l’IA pour distinguer les dialectes et les accents. Les résultats obtenus par ces outils doivent toutefois être interprétés avec prudence et faire l’objet d’un contrôle humain.
41. L’importance croissante de l’IA dans la gestion des frontières en Europe a été examinée lors de l’échange de vues que la commission a eu le 29 janvier 2025 avec M. Philippe Harant. Celui-ci a présenté les activités de l’Agence de l’Union européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (eu-LISA) en matière de développement de systèmes, de formation et d’innovation. eu-LISA gère actuellement des composantes majeures de l’infrastructure numérique de l’UE concernant la justice et les affaires intérieures: le Système d’information Schengen (SIS), le Système d’information sur les visas (VIS) et Eurodac, ainsi que le EES et le ETIAS, qui doivent être déployés prochainement.
42. Selon le rapport d’eu-LISA intitulé «Enabling Seamless Travel to the European Union», le voyage a connu une profonde transformation au cours des 20 dernières années, le nombre de personnes effectuant des voyages internationaux ayant presque doublé. Face à cette situation, on recourt à l’IA et aux technologies associées pour rendre les déplacements à la fois plus faciles et plus sûrs. La numérisation de la procédure de demande de visa Schengen et l’extension des systèmes automatisés de contrôle aux frontières devraient permettre de simplifier les démarches tout en renforçant les protocoles de sécurité 
			(44) 
			Enabling Seamless Travel
to the European Union Research Monitoring Report, décembre 2022,
eu-LISA..
43. Le contrôle préalable à l’arrivée à la frontière est une priorité croissante. L’intégration d’EES et d’ETIAS permettra aux transporteurs internationaux de passagers d’avoir accès aux systèmes de sécurité de l’UE pour vérifier les droits d’entrée des voyageurs avant leur arrivée. Les assistants virtuels d’ETIAS dotés d’IA guideront les personnes prévoyant de voyager tout au long du processus d’autorisation en ligne, prérempliront les formulaires de demande, valideront les données et apporteront une assistance multilingue. D’autres innovations, telles que les titres de voyage dématérialisés et les portiques de contrôle automatisés pour les titulaires de passeports biométriques, visent à réduire les temps d’attente et à améliorer l’efficacité, notamment pour les voyages aériens. En revanche, il n’y a encore guère d’applications similaires pour les transports ferroviaires, routiers et maritimes.
44. En outre, la Commission européenne mène plusieurs projets fondés sur l’IA pour l’administration de l’asile, dont ASYLUM-14, un moteur de recherche intelligent destiné à soutenir les procédures d’asile 
			(45) 
			Opportunities and challenges for the use of
artificial intelligence in border control, migration and security,
op. cit..
45. À des fins d’équité et de responsabilité, il faut soumettre régulièrement les technologies biométriques, telles que les dispositifs de reconnaissance faciale, à des audits de biais, en évaluant leurs performances selon les couleurs de peau et les genres. Ainsi que le montre le cas du «Smart Tunnel» de Dubaï, des évaluations trimestrielles sont indispensables 
			(46) 
			<a href='https://www.vfsglobal.com/en/individuals/insights/enhancing-border-management-systems-using-artificial-intelligence.html'>www.vfsglobal.com/en/individuals/insights/enhancing-border-management-systems-using-artificial-intelligence.html</a>; 
			(46) 
			<a href='https://imagevision.ai/blog/securing-borders-integrating-vision-ai-in-transportation-surveillance/'>https://imagevision.ai/blog/securing-borders-integrating-vision-ai-in-transportation-surveillance/</a>. Le Comité européen de l’intelligence artificielle, proposé dans le cadre du règlement de l’UE sur l’IA, devrait coordonner et harmoniser les protocoles de test pour garantir le respect des principes de non-discrimination. Les technologies qui seront utilisées dans l’avenir pour le contrôle aux frontières combineront probablement l’IA, des chaînes de blocs (blockchains) et la vérification de documents numériques, ce qui nécessitera une forte surveillance réglementaire.
46. L’IA est utilisée dans les procédures d’asile pour diverses fonctions, dont la transcription de la parole en texte, la traduction automatique, l’authentification des documents, l’identification des dialectes, la communication d’informations au moyen de chatbots, la recherche sur les pays d’origine et la prévision des tendances en matière d’asile. Le 3 octobre 2024, Mme Ludivine Stewart a indiqué que les autorités nationales recourent à l’IA pour alléger la charge administrative et améliorer la fiabilité des décisions. Par exemple, l’Allemagne utilise des outils de reconnaissance des dialectes pour déterminer les pays d’origine des personnes qui demandent l’asile. Cependant, la reconnaissance des émotions, souvent utilisée pour détecter la tromperie, est très peu fiable en raison de la variabilité culturelle de l’expression des émotions et ne devrait donc pas être employée.
47. Il s’agit de garantir la transparence des procédures; les personnes concernées par les décisions fondées sur l’IA doivent en effet pouvoir comprendre la technologie et disposer de voies de recours effectives. Les outils testés par le ministère de l’Intérieur britannique, tels que les systèmes ACS et APS, permettent d’améliorer l’efficacité, mais risquent de renforcer les biais 
			(47) 
			<a href='https://www.ein.org.uk/news/home-office-expand-ai-use-asylum-decision-making-after-promising-pilot-results'>www.ein.org.uk/news/home-office-expand-ai-use-asylum-decision-making-after-promising-pilot-results</a>; 
			(47) 
			<a href='https://www.helenbamber.org/sites/default/files/2024-02/memon-et-al-2024-artificial-intelligence-(ai)-in-the-asylum-system.pdf'>www.helenbamber.org/sites/default/files/2024-02/memon-et-al-2024-artificial-intelligence-(ai)-in-the-asylum-system.pdf.</a>. C’est pourquoi un contrôle humain doit être imposé, en particulier pour les résumés d’entretiens et les rapports sur les pays d’origine générés par l’IA. Les procédures de recours doivent rester pleinement accessibles, comme le prévoit l’article 47 de la Charte des droits fondamentaux de l’UE 
			(48) 
			<a href='https://www.statewatch.org/news/2025/january/eu-human-rights-must-be-central-guiding-basis-for-new-ai-guidelines/'>www.statewatch.org/news/2025/january/eu-human-rights-must-be-central-guiding-basis-for-new-ai-guidelines/</a>..
48. Le 11 mars 2025, Mme Frida Alizadeh Westerling a souligné devant la commission la nécessité d’intégrer les points de vue des personnes migrantes dans la conception des systèmes d’IA. Ses recherches montrent que les technologies actuellement utilisées dans la gestion des migrations sont d’abord conçues pour servir des priorités institutionnelles comme l’efficacité administrative, parfois au détriment des droits des personnes qui demandent l’asile. Une meilleure prise en compte des expériences des personnes migrantes contribuerait à améliorer la confiance dans la procédure et la qualité des décisions.
49. Selon Mme Westerling, certaines applications d’IA à haut risque doivent être interdites sans équivoque. Parmi celles-ci figurent les outils de reconnaissance des émotions, les évaluations de crédibilité automatisées ou les «détecteurs de mensonges» utilisés lors des entretiens aux frontières. Ces technologies manquent de validité scientifique et, comme le confirme le règlement de l’UE sur l’IA, portent atteinte à la dignité humaine, en violation de l’article 3 de la Convention européenne des droits de l’homme. De même, le profilage par l’IA fondé sur la nationalité ou l’appartenance ethnique est contraire à l’article 14 de la Convention et ne doit pas être utilisé.
50. Les systèmes d’IA déployés pour le traitement des demandes d’asile doivent constamment faire l’objet d’audits destinés à détecter les biais. S’ils sont entraînés à partir d’ensembles de données non représentatifs, ces outils risquent en effet de signaler à tort des incohérences dans les récits des personnes demandeuses d’asile. La méthodologie HUDERIA du Conseil de l’Europe donne des orientations pour rééquilibrer les données et ajuster les algorithmes afin d’éliminer les résultats discriminatoires.
51. L’IA présente également des avantages potentiels pour la gestion des arrivées massives, en permettant aux États et aux agences comme le HCR d’anticiper les flux migratoires résultant de conflits ou d’événements climatiques. Des outils tels que la matrice de suivi des déplacements (Displacement Tracking Matrix) de l’OIM utilisent les enregistrements d’appels téléphoniques passés à partir de portables et la géolocalisation, ainsi que l’analyse de l’activité des médias sociaux, pour connaître les mouvements de population et prévoir les besoins humanitaires 
			(49) 
			Rapport de la Rapporteuse
spéciale sur les formes contemporaines de racisme, de discrimination
raciale, de xénophobie et de l’intolérance qui y est associée (10 novembre 2020),
ONU doc A/75/590. Voir: <a href='https://www.ohchr.org/fr/special-procedures/sr-racism/annual-thematic-reports-special-rapporteur-contemporary-forms-racism'>www.ohchr.org/fr/special-procedures/sr-racism/annual-thematic-reports-special-rapporteur-contemporary-forms-racism</a>.. Ces systèmes aident les gouvernements à détecter les points faibles des dispositifs d’accueil et à allouer des ressources en conséquence.
52. Le HCR utilise largement les technologies d’IA à des fins logistiques et de distribution de l’aide. Ainsi que l’explique Mme A. Beduschi, le HCR s’appuie notamment sur le Système de gestion de l’identité biométrique (BIMS), sur CashAssist et sur le Global Distribution Tool (GDT) pour gérer l’aide financière et l’aide en nature dans les camps de réfugiés. Ces outils permettent de rationaliser la prestation de services et d’améliorer la coordination dans les situations de crise. Ils peuvent aussi améliorer l’accès aux services publics et réduire les délais administratifs 
			(50) 
			Beduschi, A., International migration management in the age
of artificial intelligence in Migration Studies, volume 9, numéro 3,
septembre 2021, pages 576–596. Voir: <a href='https://academic.oup.com/migration/article/9/3/576/5732839'>https://academic.oup.com/migration/article/9/3/576/5732839</a>..
53. Cependant, le 11 mars 2025, Mme Emilie Wiinblad Mathez (HCR) a bien précisé à la commission que le HCR n’utilisait pas l’IA pour prendre ou réviser les décisions relatives au statut de réfugié. En fait, le HCR étudie les possibilités d’utiliser l’IA générative pour des tâches comme la transcription des entretiens (menés dans le cadre des procédures de protection) et la recherche d’informations sur les pays d’origine, en veillant à ce que tous les résultats soient conformes aux normes de fiabilité, d’exactitude et de transparence 
			(51) 
			Evangelos
Kanoulas, «Unlocking Artificial Intelligence’s Potential in COI
Research», Document de recherche n° 44, Haut-Commissariat des Nations
Unies pour les réfugiés (HCR), février 2025, <a href='https://www.refworld.org/reference/lpprs/unhcr/2025/en/149514'>www.refworld.org/reference/lpprs/unhcr/2025/en/149514</a>. Le HCR mène aussi une réflexion sur la manière dont l’IA peut contribuer à lutter contre la désinformation, en soulignant la nécessité d’intégrer des garanties de sécurité et de respect de la vie privée dès la conception des systèmes et tout au long de leur déploiement.
54. Les outils d’IA peuvent aussi contribuer à réduire le nombre des demandes frauduleuses et des demandes irrecevables. Le chabot ACME, par exemple, aide les personnes en quête d’asile à analyser leur situation au regard des bases de données juridiques existantes et à déterminer à quels statuts de protection elles pourraient prétendre, et signale d’éventuelles incohérences (comme des historiques d’emploi incompatibles), tout en respectant les obligations de transparence énoncées dans le règlement de l’UE sur l’IA 
			(52) 
			<a href='https://arxiv.org/html/2407.09197v1'>https://arxiv.org/html/2407.09197v1</a>..
55. Enfin, dans les domaines de l’asile et de la police des étrangers, les systèmes d’IA sont de plus en plus utilisés pour évaluer les risques. Ils permettent de déterminer si une personne risque de subir un préjudice en cas de retour et si le principe de non-refoulement s’applique – même lorsque la personne n’a pas demandé l’asile. Ces évaluations des risques sont essentielles d’un point de vue éthique et juridique, mais la vérification de l’identité et de l’origine reste un défi et nécessite le recours à des évaluations de la crédibilité basées sur l’IA qui soient fiables et transparentes.

3.4. La période de séjour

56. Une fois admises dans un pays d’accueil, les personnes migrantes, réfugiées ou demandeuses d’asile se voient généralement accorder un permis de résidence temporaire qui légalise leur séjour dans le pays; certains États proposent aussi des voies d’accès à l’installation permanente. Il est attendu de ces personnes qu’elles se conforment aux conditions juridiques de leur séjour (liées à l’emploi, à l’éducation ou au regroupement familial, par exemple), tandis que les États restent tenus de respecter les droits fondamentaux, y compris le principe de non-refoulement, qui interdit de renvoyer des personnes vers des lieux où elles risquent de subir de graves préjudices. Dans des circonstances exceptionnelles, notamment en cas de conflit, de catastrophe naturelle ou de traite des êtres humains, les États peuvent accorder une protection temporaire pour assurer la sécurité des personnes concernées et différer leur éloignement.

3.4.1. La contribution de l’IA à une intégration inclusive

57. La phase d’intégration est essentielle dans une perspective de cohésion sociale et de développement durable. La Résolution 2502 (2023) de l’Assemblée « Intégration des migrants et des réfugiés: des avantages pour toutes les parties prenantes » définit un cadre pour des stratégies d’inclusion qui sont bénéfiques aux personnes migrantes, réfugiées et demandeuses d’asile comme aux communautés d’accueil. L’IA peut être mise à profit pour rationaliser les processus administratifs, favoriser l’insertion professionnelle, améliorer l’accès aux services et les autonomiser grâce à des solutions sur mesure.
58. Mme Mariam Tartousy (Norvège), qui s’exprimait devant la commission au nom du Conseil consultatif sur la jeunesse, a mis en évidence les promesses et les risques de l’IA dans ce contexte. L’IA peut améliorer l’efficacité des systèmes d’asile et des services d’intégration, mais des progrès restent nécessaires en matière de transparence algorithmique, de culture numérique et d’accessibilité. Mme Tartousy a plaidé en faveur d’une plus grande responsabilisation, d’une conception inclusive et de systèmes orientés vers l’utilisateur/l’utilisatrice, qui permettent d’éviter que l’utilisation d’outils numériques ait pour conséquence d’exclure ou de désavantager les personnes migrantes, réfugiées et demandeuses d’asile.

3.4.2. Réduire la fracture numérique

59. Nombre de personnes migrantes ou réfugiées sont confrontées à l’exclusion numérique, qui réduit leur capacité à utiliser les services reposant sur l’IA. La stratégie de transformation numérique du HCR recommande que les outils d’IA (comme l’application d’apprentissage linguistique AILEM, conçue avec des personnes réfugiées) soient mis à disposition en plusieurs langues et sous différentes formes 
			(53) 
			<a href='https://globalcompactrefugees.org/good-practices/ailem-app'>https://globalcompactrefugees.org/good-practices/ailem-app</a>; <a href='https://ai4good.org/eureka/'>https://ai4good.org/eureka/</a>. Les chatbots utilisés dans les services publics devraient être accessibles hors ligne et dotés d’une interface vocale, et leur contenu devrait être élaboré en collaboration avec des personnes migrantes ou réfugiées, des prestataires d’assistance juridique et des médiateurs et médiatrices communautaires 
			(54) 
			<a href='https://www.weforum.org/stories/2023/01/ai-in-migration-is-fuelling-global-inequality-how-can-we-bridge-gap/'>www.weforum.org/stories/2023/01/ai-in-migration-is-fuelling-global-inequality-how-can-we-bridge-gap/</a>; 
			(54) 
			<a href='https://globalcompactrefugees.org/good-practices/geomatch-connecting-people-places-using-artificial-intelligence'>https://globalcompactrefugees.org/good-practices/geomatch-connecting-people-places-using-artificial-intelligence</a>. C’est le cas du chatbot Aurora, développé en Amérique latine, qui améliore l’accès à l’information en intégrant les réactions des personnes migrantes ou réfugiées dans sa conception 
			(55) 
			<a href='https://www.migrationdataportal.org/did-profile/aurora-chatbot-empowering-transit-migrants-reliable-information-and-humanitarian-aid'>www.migrationdataportal.org/did-profile/aurora-chatbot-empowering-transit-migrants-reliable-information-and-humanitarian-aid</a>..
60. Devant la commission, le 11 mars 2025, Mme Emilie Wiinblad Mathez a relevé l’utilisation croissante de grands modèles de langage (LLM), tels que ChatGPT, Gemini et CoPilot, ainsi que de systèmes d’IA moins visibles, dans le secteur public et le secteur privé. Elle a souligné que ces outils doivent être évalués sous l’angle de leur fiabilité et de leur pertinence contextuelle, notamment en ce qui concerne la protection des personnes réfugiées. Ces personnes ont en effet des besoins de protection internationale particuliers, qui doivent être dûment pris en compte lors du développement de toute application d’IA dans ce domaine.

3.4.3. Des moyens éthiques d’améliorer l’adéquation entre l’offre et la demande sur le marché du travail

61. Des outils d’IA comme GeoMatch et Annie MOORE sont conçus pour optimiser la réinstallation des personnes réfugiées en tenant compte de caractéristiques individuelles (comme le niveau d’instruction et la maîtrise de la langue) et de facteurs locaux comme les métiers en tension et les infrastructures collectives 
			(56) 
			<a href='https://globalcompactrefugees.org/good-practices/geomatch-connecting-people-places-using-artificial-intelligence'>https://globalcompactrefugees.org/good-practices/geomatch-connecting-people-places-using-artificial-intelligence</a>; <a href='https://www.economics.ox.ac.uk/annie-moore-increasing-employment-of-resettled-refugees-using-matching-machine-learning-and-integer'>www.economics.ox.ac.uk/annie-moore-increasing-employment-of-resettled-refugees-using-matching-machine-learning-and-integer</a>.. Ces outils doivent donner la priorité à l’unité familiale et à la compatibilité culturelle et prendre en considération la dimension de genre pour éviter de renforcer la ségrégation sur le marché du travail (par exemple, il faut éviter d’orienter les femmes de manière disproportionnée vers des métiers faiblement rémunérés). Des mécanismes de retour d’information doivent être intégrés dans les outils pour détecter et corriger les inadéquations entre les profils et les emplois proposés 
			(57) 
			<a href='https://www.economics.ox.ac.uk/annie-moore-increasing-employment-of-resettled-refugees-using-matching-machine-learning-and-integer'>www.economics.ox.ac.uk/annie-moore-increasing-employment-of-resettled-refugees-using-matching-machine-learning-and-integer</a>.
62. Dans son exposé du 3 octobre 2024, M. William Jones a présenté Annie MOORE, qui utilise des données migratoires des États-Unis pour améliorer l’adéquation entre l’offre et la demande sur le marché du travail. Ce logiciel permettrait une progression des insertions professionnelles réussies comprise entre 25 et 30 %. M. Jones a aussi présenté Annie 2.0, qui aide à prévoir l’arrivée de personnes réfugiées et à déterminer l’endroit le plus adapté à leur réinstallation, avant même que les dates d’arrivée soient confirmées, permettant ainsi aux autorités de mieux anticiper les besoins. Enfin, Ruth, un autre outil développé dans le cadre de la même initiative, permet de prendre en compte les préférences des personnes réfugiées dans les décisions relatives à la réinstallation; utilisé pour l’accueil des Ukrainiennes et des Ukrainiens aux États-Unis, il s’est montré rapide et réactif.

3.4.4. Apprentissage des langues et adaptation culturelle

63. L’IA favorise l’intégration grâce à des outils d’orientation linguistique et culturelle adaptés. L’application AILEM traite de situations culturellement pertinentes et propose des fonctionnalités comme AILEMmap, qui géolocalise des services de soutien linguistique, et AILEMexchange, qui met les apprenant·es en relation avec des locutrices et locuteurs natifs 
			(58) 
			<a href='https://globalcompactrefugees.org/good-practices/ailem-app'>https://globalcompactrefugees.org/good-practices/ailem-app</a>.. De même, l’application Eureka présente, en plusieurs langues, les usages locaux: par exemple, elle donne des informations pratiques comme les consignes de tri des déchets à Amsterdam 
			(59) 
			<a href='https://communicity-project.eu/2025/04/11/an-ai-tool-to-support-immigrants-and-refugees-with-administrative-tasks/'>https://communicity-project.eu/2025/04/11/an-ai-tool-to-support-immigrants-and-refugees-with-administrative-tasks/</a>..
64. Des outils de traduction en temps réel assistés par l’IA, comme le traducteur vocal-texte de MigrantSocial, prennent en charge une centaine de langues et aident les personnes migrantes, réfugiées et demandeuses d’asile à communiquer avec des bailleurs, des professionnel·les de santé ou des enseignant·es 
			(60) 
			<a href='https://migrantsocial.org/page/about-migrantsocial'>https://migrantsocial.org/page/about-migrantsocial</a>.. Ces outils ont permis de réduire de 23 % les coûts administratifs pour les collectivités locales tout en renforçant la confiance interculturelle. Une meilleure acquisition de la langue s’accompagne aussi d’une diminution de 31 % du recours aux services sociaux, ainsi que d’un renforcement de la cohésion sociale 
			(61) 
			<a href='https://globalcompactrefugees.org/good-practices/ailem-app'>https://globalcompactrefugees.org/good-practices/ailem-app</a>..

3.4.5. Inclusion juridique, sociale et économique

65. En outre, l’IA améliore l’accompagnement juridique et social. En France, l’application Réfugiés.info donne des informations en plusieurs langues sur le système de santé, le logement et les droits 
			(62) 
			<a href='https://refugies.info/'>Le service public
d’information pour les personnes réfugiées – Réfugiés.info.</a>. Le chatbot Skendy, opérationnel à Amsterdam et à Prague, aide à gérer les documents administratifs et à renouveler un visa, et accompagne même les personnes réfugiées qui veulent créer une entreprise ou demander une subvention 
			(63) 
			<a href='https://communicity-project.eu/2025/04/11/an-ai-tool-to-support-immigrants-and-refugees-with-administrative-tasks/'>https://communicity-project.eu/2025/04/11/an-ai-tool-to-support-immigrants-and-refugees-with-administrative-tasks/</a>.. À Amsterdam, 68 % des start-ups dirigées par des personnes réfugiées utilisant Skendy ont obtenu un financement de démarrage dans un délai de six mois 
			(64) 
			<a href='https://communicity-project.eu/2025/04/11/an-ai-tool-to-support-immigrants-and-refugees-with-administrative-tasks/'>Ibid.</a>. Il a notamment été constaté que les chef·fes d’entreprise qui sont des personnes migrantes créent 3,2 fois plus d’emplois par habitant que leurs homologues nés dans le pays, et contribuent donc de manière significative à redynamiser l’économie locale 
			(65) 
			<a href='https://www.caf.com/en/blog/artificial-intelligence-ai-at-the-service-of-financial-inclusion/'>www.caf.com/en/blog/artificial-intelligence-ai-at-the-service-of-financial-inclusion/</a>; 
			(65) 
			<a href='https://rbcdsai.iitm.ac.in/blogs/can-ai-facilitate-the-digital-financial-inclusion-of-migrant-workers/'>https://rbcdsai.iitm.ac.in/blogs/can-ai-facilitate-the-digital-financial-inclusion-of-migrant-workers/</a>..

3.4.6. Gouvernance, supervision et outils prédictifs

66. L’IA est de plus en plus utilisée dans les décisions relatives aux séjours de longue durée et à l’intégration dans l’espace Schengen. Les autorités peuvent recourir à l’IA pour vérifier le respect de la législation, contrôler les conditions de résidence ou améliorer la prévention de la fraude. Cependant, vu les enjeux en matière de vie privée, de droits de la défense et de protection contre la discrimination, il est indispensable de mettre en place des garanties juridiques solides et des audits indépendants 
			(66) 
			<a href='C:\Users\garabagiu\ND Office Echo\DE-7TO1X6K0\www.un.org\digital-emerging-technologies\sites\www.un.org.techenvoy\files\GDC-submission_UNHCR.pdf'>www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf</a>; 
			(66) 
			<a href='https://ai4good.org/eureka/'>https://ai4good.org/eureka/</a>.. Ainsi que le soulignent les principes pour l’utilisation éthique de l’IA dans le système des Nations Unies, les États devraient procéder à des évaluations annuelles des risques afin de détecter les pratiques discriminatoires, telles que le marquage résidentiel ( redlining)» algorithmique, qui entrave l’accès de certaines personnes au logement.
67. Des systèmes d’IA peuvent aussi contribuer à optimiser la répartition géographique des personnes demandeuses d’asile en les orientant vers les régions où elles ont le plus de chances de réussir, sur la base de la compatibilité de leurs compétences avec le marché de l’emploi local, mais aussi en fonction des réseaux communautaires et des services disponibles. Des outils prédictifs sont déjà utilisés pour la planification urbaine; c’est le cas à Utrecht, où des stratégies de logement élaborées avec l’aide de l’IA ont permis de réduire la ségrégation ethnique de 19 % et d’accroître l’innovation et la cohésion sociale 
			(67) 
			<a href='https://www.living-in.eu/news/digital-solutions-migration-management'>www.living-in.eu/news/digital-solutions-migration-management</a>; 
			(67) 
			<a href='https://ijrpr.com/uploads/V6ISSUE1/IJRPR37902.pdf'>https://ijrpr.com/uploads/V6ISSUE1/IJRPR37902.pdf</a>..
68. Les stratégies d’intégration appuyées par l’IA peuvent présenter un double avantage: elles peuvent accélérer l’autonomisation tout en renforçant la résilience économique et sociale des communautés d’accueil. Pour que ce potentiel se réalise, il faut que les États membres mettent en œuvre des solutions comme GeoMatch, investissent dans des technologies linguistiques inclusives comme AILEM, et respectent les normes éthiques énoncées dans la Convention-cadre du Conseil de l’Europe sur l’IA.
69. Enfin, comme le montre l’étude menée par Bansak et ses collègues, si les autorités se font aider par l’IA pour orienter les personnes réfugiées vers les lieux les plus adaptés, sur la base de données personnelles et régionales (langue, niveau d’instruction, marché de l’emploi local, etc.), leur intégration peut être grandement améliorée. Cette forme de prise de décision guidée par les données permet aux responsables de personnaliser les orientations et d’améliorer les perspectives à long terme.

3.4.7. L’IA dans l’éducation et la préparation à l’avenir

70. L’IA peut également transformer l’accès à l’éducation pour les personnes migrantes ou réfugiées, qu’elles soient des adultes ou des enfants. Des outils personnalisés d’apprentissage des langues offrent un retour d’information en temps réel sur la prononciation, la fluidité et la compréhension, et s’adaptent aux progrès individuels. Ces innovations peuvent jouer un rôle essentiel en aidant les personnes migrantes, réfugiées et demandeuses d’asile, en particulier les jeunes, à s’adapter plus rapidement à leur société d’accueil, et à se sentir davantage en confiance.

3.5. Les étapes de la migration circulaire et du retour

71. La migration circulaire désigne les mouvements répétés effectués entre des pays par des personnes comme des travailleurs saisonniers ou des résidents permanents qui conservent des liens avec leur pays d’origine. Lorsqu’elle est volontaire, elle peut être bénéfique pour les pays d’origine et pour les pays d’accueil, tant sur le plan économique que social. Des personnes migrantes rentrent volontairement pour des raisons personnelles ou professionnelles, mais d’autres y sont contraintes, parce qu’elles ont perdu leur statut juridique. Dans ces situations, la participation à un programme d’aide au retour et à la réinsertion peut constituer une solution plus digne que l’expulsion.
72. Les États doivent veiller à ce que les processus de retour soient sûrs, volontaires et fondés sur une information complète. Des outils alimentés par l’IA – comme les chatbots pour l’aide au retour – peuvent améliorer l’accès à l’aide à la réinsertion, mais ils ne doivent pas faire pression sur les personnes migrantes pour qu’elles retournent chez elles. Ces systèmes devraient se conformer aux principes d’équité énoncés dans les lignes directrices de l’OCDE sur l’IA 
			(68) 
			<a href='https://www.oecd.org/migration/mig/EMN-OECD-INFORM-FEB-2022-The-use-of-Digitalisation-and-AI-in-Migration-Management.pdf'>www.oecd.org/migration/mig/EMN-OECD-INFORM-FEB-2022-The-use-of-Digitalisation-and-AI-in-Migration-Management.pdf</a>; 
			(68) 
			<a href='https://www.weforum.org/stories/2023/01/ai-in-migration-is-fuelling-global-inequality-how-can-we-bridge-gap/'>www.weforum.org/stories/2023/01/ai-in-migration-is-fuelling-global-inequality-how-can-we-bridge-gap/</a>..
73. Les plateformes d’IA qui gèrent la migration circulaire, comme le réseau de cartes bleues européennes, doivent respecter les normes de protection des données: les personnes migrantes doivent pouvoir supprimer ou transférer leurs données à caractère personnel, et le partage des données biométriques avec les pays d’origine doit être interdit, notamment en présence de risques de persécution 
			(69) 
			<a href='C:\Users\garabagiu\ND Office Echo\DE-7TO1X6K0\www.oecd.org\migration\mig\EMN-OECD-INFORM-FEB-2022-The-use-of-Digitalisation-and-AI-in-Migration-Management.pdf'>www.oecd.org/migration/mig/EMN-OECD-INFORM-FEB-2022-The-use-of-Digitalisation-and-AI-in-Migration-Management.pdf</a>; 
			(69) 
			<a href='https://www.vfsglobal.com/en/individuals/insights/enhancing-border-management-systems-using-artificial-intelligence.html'>https://www.vfsglobal.com/en/individuals/insights/enhancing-border-management-systems-using-artificial-intelligence.html.</a>. La politique du HCR sur la protection des données (2022) impose l’utilisation du chiffrement, la limitation de l’accès aux données et leur suppression après décision 
			(70) 
			<a href='https://www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf'>www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf.</a>.
74. En outre, l’IA peut contribuer à l’évaluation des risques environnementaux pour les destinations de retour en utilisant des images satellites et l’analyse prédictive. Les États peuvent recourir à l’IA pour évaluer les conditions environnementales dans les régions de retour. Par exemple, l’analyse d’images satellites à l’aide de techniques d’apprentissage automatique permet de vérifier si la sécheresse en Somalie s’est suffisamment atténuée pour envisager un retour en toute sécurité. L’IA contribue ainsi à évaluer la situation dans la région de retour. Des chatbots peuvent informer les personnes concernées des résultats de ces évaluations, tout en chiffrant leurs données biométriques 
			(71) 
			<a href='https://naturenews.africa/iom-microsoft-use-ai-to-combat-climate-driven-migration/'>https://naturenews.africa/iom-microsoft-use-ai-to-combat-climate-driven-migration/</a>; 
			(71) 
			<a href='https://phys.org/news/2024-10-ai-climate-driven-migration.html'>https://phys.org/news/2024-10-ai-climate-driven-migration.html</a>..

3.6. Les étapes de l’intégration et de la réintégration durables

75. L’intégration se caractérise par une adaptation mutuelle des personnes migrantes, réfugiées et demandeuses d’asile et des sociétés d’accueil, qui permet aux premières de participer activement à tous les aspects de la vie: vie sociale, vie économique, vie culturelle et vie politique. L’intégration est donc un processus réciproque, fondé sur une responsabilité partagée et axé sur l’inclusion et la cohésion sociale.
76. La réintégration, quant à elle, permet aux personnes migrantes de retour de reprendre leur vie dans leur pays d’origine. Elle met l’accent sur le bien-être économique, social et psychosocial, pour que les migrations futures soient un choix et non une nécessité.
77. Pour faciliter l’intégration et la réintégration durables, les États devraient mettre en place des systèmes de suivi à long terme ainsi que des évaluations d’impact au niveau local. Ils devraient aussi utiliser des outils d’IA (algorithmes de recherche de moyens de subsistance adaptés développés par l’OIM ou outils d’établissement de rapports mis au point dans le cadre du règlement européen sur les services numériques par exemple), afin de suivre les résultats (maintien dans l’emploi, cohésion sociale, etc.). Et ils devraient aussi promouvoir la maîtrise du numérique et fournir des assistants d’IA accessibles hors ligne (par exemple, Eureka) pour des tâches comme l’inscription à l’assurance maladie ou l’apprentissage des langues 
			(72) 
			<a href='https://publications.iom.int/system/files/pdf/pub2024-033-l-return-reintegration-2023-highlights_1.pdf'>https://publications.iom.int/system/files/pdf/pub2024-033-l-return-reintegration-2023-highlights_1.pdf</a> ; 
			(72) 
			<a href='https://migrationletters.com/index.php/ml/article/view/7575'>https://migrationletters.com/index.php/ml/article/view/7575</a>..
78. Dans le cadre de la lutte contre la discrimination, le traitement automatique du langage naturel (TLN) peut servir à détecter les discours de haine en ligne. Des outils comme Sol.ai proposent des tutoriels pour services numériques hors ligne, et il existe des systèmes de TLN qui contrôlent la présence de propos xénophobes. Le comité sur l'intelligence artificielle du Conseil de l’Europe (CAI) souligne qu’il est important d’adjoindre à l’IA un contrôle humain pour garantir l’exactitude contextuelle et éviter une censure excessive 
			(73) 
			<a href='https://glowaction.org/a-comprehensive-guide-to-sol-ai-glows-innovative-chatbot-dedicated-to-enhancing-language-learning-for-refugees/'>https://glowaction.org/a-comprehensive-guide-to-sol-ai-glows-innovative-chatbot-dedicated-to-enhancing-language-learning-for-refugees/</a>..

4. Les aspects transversaux

79. Pour que l’intelligence artificielle bénéficie aux personnes migrantes, réfugiées et demandeuses d’asile sans compromettre leur dignité humaine ni leurs droits, les États membres doivent inscrire la gouvernance de l’IA dans les cadres de référence sur les droits humains et mettre en place des garde-fous à chaque étape du processus migratoire. Des structures juridiques contraignantes, notamment la Convention-cadre du Conseil de l’Europe sur l’IA, devraient être adoptées par voie de signature et de ratification 
			(74) 
			<a href='https://www.coe.int/fr/web/artificial-intelligence/work-in-progress'>www.coe.int/fr/web/artificial-intelligence/work-in-progress</a> ; 
			(74) 
			<a href='https://edoc.coe.int/fr/intelligence-artificielle/11925-convention-cadre-du-conseil-de-leurope-sur-lintelligence-artificielle-et-les-droits-de-lhomme-la-democratie-et-letat-de-droit.html'>https://edoc.coe.int/fr/intelligence-artificielle/11925-convention-cadre-du-conseil-de-leurope-sur-lintelligence-artificielle-et-les-droits-de-lhomme-la-democratie-et-letat-de-droit.html</a>.. La conception participative, comme la participation des personnes réfugiées au développement de l’IA (par exemple, le modèle Eureka), peut contribuer à ce que les systèmes répondent aux besoins réels et à éviter de renforcer les préjugés institutionnels 
			(75) 
			<a href='https://ai4good.org/eureka/'>https://ai4good.org/eureka/</a>..
80. Le renforcement des capacités est essentiel. Les fonds du programme de l’UE pour une Europe numérique (Digital Europe) peuvent être utilisés pour dispenser des formations sur l’éthique de l’IA aux agent·es chargés de la migration 
			(76) 
			<a href='https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai'>https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai</a>., et les ONG qui participent aux audits de la surveillance aux frontières doivent également recevoir des ressources et une formation. Les travailleuses et travailleurs sociaux et les agent·es chargés du traitement des demandes d’asile doivent être formés à l’évaluation critique des résultats produits par les systèmes d’IA, en particulier lorsqu’il y a des écarts entre les résumés automatiques et les auditions initiales 
			(77) 
			<a href='https://inkstickmedia.com/for-migrants-artificial-intelligence-becomes-a-roadblock-to-europe/'>https://inkstickmedia.com/for-migrants-artificial-intelligence-becomes-a-roadblock-to-europe/</a>.. Comme le souligne la «Stratégie de transformation numérique» du HCR, le personnel doit être en mesure de reconnaître les biais algorithmiques et de comprendre les limites de l’IA, par exemple les difficultés à interpréter les schémas de discours marqués par des traumatismes 
			(78) 
			<a href='https://www.gov.uk/government/publications/evaluation-of-ai-trials-in-the-asylum-decision-making-process'>www.gov.uk/government/publications/evaluation-of-ai-trials-in-the-asylum-decision-making-process</a> ; 
			(78) 
			<a href='https://www.helenbamber.org/sites/default/files/2024-02/memon-et-al-2024-artificial-intelligence-(ai)-in-the-asylum-system.pdf'>www.helenbamber.org/sites/default/files/2024-02/memon-et-al-2024-artificial-intelligence-(ai)-in-the-asylum-system.pdf</a>.. Cette stratégie souligne du reste l’importance de former les personnels à la détection des biais algorithmiques et à la contextualisation des résultats produits par l’IA 
			(79) 
			<a href='https://www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf'>www.un.org/digital-emerging-technologies/sites/www.un.org.techenvoy/files/GDC-submission_UNHCR.pdf</a> ; 
			(79) 
			<a href='https://www.helenbamber.org/resources/research/artificial-intelligence-ai-asylum-system'>www.helenbamber.org/resources/research/artificial-intelligence-ai-asylum-system</a>..
81. Il faut aussi intensifier les efforts pour renforcer les compétences en matière d’IA de tous les acteurs de la gouvernance des migrations et de l’asile. D’après le rapport de la Commission européenne intitulé «Opportunities and challenges for the use of artificial intelligence in border control, migration and security» (opportunités et défis liés à l’utilisation de l’intelligence artificielle dans le domaine du contrôle des frontières, des migrations et de la sécurité), une mise en œuvre efficace nécessite un éventail de compétences dans de multiples domaines comme la politique, le droit, l’éthique, la science des données, l’ingénierie de l’IA et la conception des systèmes. Les centres d’excellence en matière d’IA joueront un rôle central dans le développement de ces compétences 
			(80) 
			Opportunities
and challenges for the use of artificial intelligence in border
control, migration and security, op. cit..
82. Enfin, la protection des données reste une préoccupation essentielle. Les travaux de l’eu-LISA soulignent à cet égard la nécessité de garantir la sécurité des données à caractère personnel en établissant un lien direct entre la protection des droits humains et le déploiement sûr et éthique de l’IA dans les systèmes de migration.

5. Conclusion

83. L’intelligence artificielle façonne de plus en plus les procédures de migration et d’asile, ce qui a des incidences sur les personnes migrantes, réfugiées et demandeuses d’asile et les sociétés d’accueil. Si l’innovation technologique ouvre des possibilités d’amélioration sur le plan de l’efficacité et de la fourniture des services, son utilisation doit s’enraciner fermement dans les principes des droits humains, de la démocratie et de l’État de droit. Trouver le juste équilibre entre protection humanitaire, d’un côté, et sécurité des frontières et sûreté publique, de l’autre, constitue dès lors un défi majeur.
84. Au lieu de suivre les approches réglementaires adoptées par d’autres régions, l’Europe doit s’employer activement à bâtir son propre modèle de gouvernance de l’IA. Cela passe nécessairement par l’intégration des valeurs européennes dans la conception et l’utilisation des systèmes d’IA, en particulier dans des domaines sensibles tels que la migration. L’IA est déjà largement utilisée avant le départ et à l’arrivée des personnes migrantes, à des fins de vérification de l’identité, d’évaluation des risques, de surveillance et de traitement des demandes d’asile. Toutefois, son utilisation dans les procédures de retour reste limitée.
85. Pour garantir un déploiement sûr et éthique de l’IA, les États membres doivent, à chaque étape du processus migratoire, mettre en place des garde-fous spécifiques qui soient conformes à la Convention relative au statut des réfugiés et aux normes du Conseil de l’Europe. Ils doivent notamment veiller à ce que les décisions en matière d’asile restent dirigées par un être humain, concevoir les outils d’intégration en coopération avec les personnes migrantes, réfugiées et demandeuses d’asile et définir des protocoles pour la gouvernance des données, l’audit et les recours. Des études d’impact de l’IA doivent être menées de façon systématique afin d’évaluer les effets potentiels de cette technologie sur les droits et les libertés.
86. La méthodologie HUDERIA du Conseil de l’Europe propose une approche structurée de l’évaluation des risques pour les droits humains. Les applications d’IA à haut risque doivent être interdites et des mécanismes de contrôle solides, dont des comités d’examen indépendants, doivent être créés. Ces structures doivent comprendre des spécialistes de la société civile, des juristes et des expert·es techniques pour permettre l’établissement des responsabilités et garantir le respect des normes en matière de protection internationale.
87. Les mécanismes de recours doivent être directement disponibles et facilement accessibles. Les demandeurs et demandeuses d’asile doivent avoir le droit de contester les données produites par les systèmes d’IA, notamment les synthèses d’entretien erronées et les analyses biaisées, en engageant une procédure accélérée de réexamen judiciaire. L’assistance juridique devrait être étendue à ce type de contestations et des réparations doivent être disponibles lorsque le préjudice résulte d’erreurs algorithmiques. En outre, les États parties à la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle doivent garantir l’accès à des voies de recours effectives en cas d’atteinte aux droits.
88. Les outils éthiques alimentés par l’IA, tels que les agents conversationnels, permettent d’accroître l’accès à l’information et de réduire la vulnérabilité, à condition toutefois que leur mise en œuvre soit assortie de garanties suffisantes. Ils doivent être conçus de manière participative et les développements futurs doivent donner la priorité à l’interopérabilité et à la fonctionnalité hors ligne pour que les populations migrantes exclues du numérique puissent aussi en bénéficier.