Démantèlement de l'utilisation du Big Data pour expulser
L'utilisation croissante de la technologie numérique et le traitement à grande échelle des données personnelles pour l'application des lois sur l'immigration suivent la tendance à brouiller la frontière entre le contrôle de l'immigration et les objectifs de sécurité. Il en résulte une surveillance accrue et une discrimination à l'encontre des personnes de couleur, des minorités religieuses et ethniques.
Comme l'a souligné l'expert des droits de l'homme des Nations unies sur le racisme, dans la plupart des contextes nationaux, il est plus difficile pour les non-citoyens de se protéger contre les abus de l'État. Dans le même temps, les gouvernements exercent des pouvoirs de gestion des frontières et d'application des lois sur l'immigration qui ne sont pas soumis aux garanties procédurales habituelles accordées aux citoyens. Le résultat est le développement et le déploiement de technologies numériques pour le contrôle de l'immigration d'une manière qui est "uniquement expérimentale, dangereuse et discriminatoire".
Par exemple, depuis 2013, Frontex (le corps de garde-frontières et de garde-côtes de l'UE) gère l'opération Eurosur, un cadre d'échange d'informations et de coopération entre les États membres et Frontex pour prévenir la migration irrégulière et la criminalité transfrontalière grâce à l'utilisation de drones, de navires, d'avions pilotés et non pilotés, d'hélicoptères et de satellites équipés d'un système radar, de caméras thermiques et de capteurs de haute technologie. Eurosur s'est inspiré du système de surveillance espagnol Sistema Integrado de Vigilancia Exterior (SIVE), en place depuis 2000 pour surveiller ses frontières côtières méridionales à l'aide de la technologie radar, de caméras de haute technologie, d'un système d'identification automatique des navires et de gardes-frontières à la frontière entre l'Espagne et le Maroc et dans les eaux territoriales espagnoles. En Hongrie et en Grèce, un projet pilote financé par l'UE a introduit des détecteurs de mensonges alimentés par l'IA aux points de contrôle frontaliers dans les aéroports, afin de surveiller les visages des personnes pour y déceler des signes de mensonge, et de signaler les individus pour qu'ils soient soumis à un contrôle supplémentaire par un agent humain. En Allemagne, l'Office fédéral des migrations et des réfugiés (BAMF) utilise des systèmes automatisés de reconnaissance de texte et de parole dans les procédures d'asile.
La tendance à utiliser la technologie numérique et le big data pour l'application de la loi sur l'immigration d'une manière qui brouille la ligne de démarcation entre le contrôle de l'immigration et les objectifs de sécurité est encore plus incarnée par les règlements de l'UE sur les bases de données migratoires interopérables. Adoptés juste un an après l'entrée en vigueur du Règlement général sur la protection des données (RGPD) de l'UE, ces deux règlements créent une base pour l'interconnexion de multiples bases de données migratoires (ainsi que des données sur les casiers judiciaires) afin de poursuivre des objectifs liés au contrôle de l'immigration et à la lutte contre les crimes graves. Le cadre d'interopérabilité cible exclusivement les ressortissants de pays tiers à des fins qui mêlent l'application de la législation sur l'immigration et le ciblage des "crimes graves" comme le terrorisme, ce qui implique un faux lien entre la criminalité et l'immigration. Cela crée un système profondément complexe avec de multiples bases de données interconnectées qui augmentent la probabilité d'erreurs et rendent extrêmement difficile d'informer les gens sur la façon dont leurs données sont utilisées, sur la façon dont ils peuvent rectifier leurs données et obtenir des recours efficaces en cas d'erreurs ou d'abus.
En avril 2021, la Commission européenne a proposé un nouveau règlement sur l'intelligence artificielle qui reconnaît quecertaines utilisations de l'IA dans le contexte de la migration et de l'asile présentent un "risque élevé" pour les droits fondamentaux et la sécurité. Mais elle propose des réponses limitées, essentiellement techniques, à ce risque, en accordant peu d'attention à l'impact de ces technologies sur le bien-être et les droits des personnes les plus touchées. Il est inquiétant de constater que les bases de données d'interopérabilité sur les migrations sont explicitement exemptées des règles même minimales fixées par la loi.
Letraitement des données personnelles des personnes sans papiers à des fins d'application des lois sur l'immigration se produit également à l'intérieur des frontières de l'Europe. Les données personnelles sont souvent partagées lorsque les personnes sans-papiers signalent à la police des crimes ou des mauvais traitements, ce qui les expose à la détention et à l'expulsion et les décourage de chercher de l'aide. Les données personnelles sont également utilisées pour "surveiller" les personnes sans papiers qui ont accès aux soins de santé, aux services sociaux et à l'éducation. Outre leurs effets néfastes sur la santé et la sécurité des personnes, ces pratiques peuvent conduire au profilage racial et à la discrimination. Pour sauvegarder les droits fondamentaux, il est nécessaire de mettre en place des "pare-feu"afin que l'application des lois sur l'immigration soit toujours séparée de l'accès aux services et aux aides essentiels.
L'utilisation de la technologie peut aggraver les choses, en augmentant le potentiel de discrimination et de préjudice de manière souvent moins visible. En même temps, il est important de garder à l'esprit que le problème fondamental est le déploiement de ces technologies pour faire avancer un programme déjà nuisible.
Notre rapport :
Protection des données, contrôle de l'immigration et droits fondamentaux


Les recommandations de PICUM
Pour les fonctionnaires de l'Union européenne :
- Adopter une loi sur l'intelligence artificielle (IA) qui reconnaisse et traite les implications en matière de droits fondamentaux de certaines utilisations de l'intelligence artificielle.. Cela signifie, entre autres ;
- veiller à ce que la loi sur l'IA s'applique aux utilisations de l'IA dans le cadre des bases de données de l'UE sur les migrations ;
- inclure dans la loi sur l'IA des mécanismes de mise à jour solides et cohérents pour les systèmes d'IA à risque "inacceptable" et "limité", ainsi que l'obligation pour les utilisateurs d'IA à haut risque de procéder à une évaluation de l'impact sur les droits fondamentaux ;
- la création de droits individuels dans l'Acte AI comme base pour les recours judiciaires, ainsi qu'un droit à un recours effectif lorsque ces droits ont été violés et un mécanisme permettant aux organisations d'intérêt public de déposer une plainte auprès des autorités de surveillance nationales.
- Assurer un contrôle démocratique et des systèmes de responsabilité des utilisations de la technologie numérique et du traitement à grande échelle des données personnelles. Compte tenu des asymétries d'information et de pouvoir bien connues entre ceux qui développent et déploient la technologie numérique et ceux qui y sont soumis, l'UE doit intégrer des mécanismes de contrôle et de consultation véritables, y compris avec les organisations de la société civile et les communautés les plus susceptibles de subir les effets néfastes de ces systèmes. Des systèmes de responsabilité accessibles doivent également être mis en place pour permettre la réparation des violations des droits liées à l'utilisation de ces systèmes et technologies. Pour ce faire, il faut habiliter les organismes de promotion de l'égalité, les autorités chargées de la protection des données et les autres organismes publics compétents à rendre compte des conséquences des technologies numériques et du traitement des données sur les droits de l'homme et la discrimination.
- Respecter les engagements pris dans le cadre du Plan d'action européen contre le racisme en intégrant une perspective d'égalité raciale dans tous les domaines politiques, y compris la migration. La Commission européenne devrait veiller à ce que la Task Force sur l'égalité prenne des mesures significatives pour identifier et traiter les dimensions d'égalité raciale des politiques migratoires de l'UE, avec un engagement significatif des défenseurs de la justice raciale et des droits des migrants dans le processus.
Pour les défenseurs travaillant aux niveaux national et local :
- Connectez-vous avec les défenseurs des droits numériques et de la justice raciale dans votre contexte national pour explorer et comprendre ensemble les politiques et les pratiques qui affectent les personnes sans papiers dans votre pays - à la frontière (par exemple, la surveillance à distance, les procédures de dépistage), dans leurs interactions avec les autorités d'immigration dans les procédures d'asile et de visa, et dans leurs interactions avec la police.
- Informer les personnes sans papiers de la manière dont la technologie numérique les affecte - et de la manière dont elles peuvent défendre leurs droits. Le manque de transparence concernant l'utilisation de la technologie numérique et sa complexité font qu'il est très difficile de comprendre où et comment elle est utilisée, et encore moins de surveiller et de tenir les acteurs publics et privés responsables de son utilisation (et de son mauvais usage). Ce qui est clair, c'est qu'il y aura des conséquences pratiques pour les migrants, et ils doivent savoir comment ils seront affectés - et comment ils peuvent contester les erreurs et les violations de leurs droits. Nous devons tous faire ce que nous pouvons pour les soutenir dans cette démarche. Bien qu'elle soit problématique à bien des égards, la législation européenne offre de solides protections du droit à la vie privée et à la protection des données, quel que soit le statut de résidence ou de migration d'une personne. Les autorités nationales chargées de la protection des données et les organismes de défense des droits de l'homme peuvent également constituer une source d'information importante et offrir des possibilités de responsabilisation.
- Faire pression pour des politiques qui garantissent que l'application des lois sur l'immigration est séparée de la prestation des services clés. Plaider pour la création de "pare-feu"afin de garantir que les personnes sans papiers qui tentent d'obtenir des soins de santé, d'aller à l'école, d'accéder à des services, de signaler un crime ou de demander réparation pour des violations des droits du travail ne soient pas confrontées aux conséquences de l'immigration.
- Documentez l'impact de la technologie numérique sur les personnes sans papiers. Lorsque vous voyez des utilisations de la technologie numérique qui sont discriminatoires ou nuisibles, ou des obstacles à la responsabilisation, documentez-les. Cela fournira des preuves qui peuvent soutenir le plaidoyer ainsi que d'éventuels défis juridiques pour changer les lois et les pratiques problématiques.
- Engagez-vous et défendez vos intérêts. Les droits numériques et les droits des migrants peuvent sembler être des sphères éloignées, ayant peu en commun. Mais le monde change, et le chevauchement entre les droits numériques et les droits des migrants est plus étroit que jamais, et les enjeux plus élevés que jamais. Il est essentiel que les organisations et les défenseurs sortent de leurs silos, prennent le temps et aient le courage de s'informer et de s'exprimer, ensemble, sur ces questions qui sont à l'intersection de notre travail. Il est essentiel que les défenseurs s'opposent à l'idée que les questions et les solutions relatives aux droits numériques sont principalement des questions techniques pour les informaticiens et les "experts", et que le contexte plus large des droits de l'homme et de la justice raciale soit pris en compte dans ce travail et ce plaidoyer, par le biais de la collaboration et du plaidoyer conjoint.
Nos briefings :

