Estudios de Deusto

Revista de Derecho Público

ISSN 0423-4847 (Print)

ISSN 2386-9062 (Online)

DOI: http://dx.doi.org/10.18543/ed

Vol. 71/2 julio-diciembre 2023

DOI: http://dx.doi.org/10.18543/ed7122023

Estudios

LAS NUEVAS TECNOLOGÍAS EN LAS POLÍTICAS MIGRATORIAS Y DE CONTROL DE FRONTERAS ESPAÑOLAS Y EUROPEAS.
UN RETO PARA LA VIGENCIA DE LOS DERECHOS FUNDAMENTALES
[1]

New technologies in Spanish and European migration and border control policies. A challenge for the validity of fundamental rights

Carlos Arce Jiménez

Profesor Doctor

Departamento de Derecho Público y Económico

Universidad de Córdoba

https://doi.org/10.18543/ed.2926

Recibido: 22.05.2023

Aceptado: 04.12.2023

Publicado en línea: diciembre 2023

Resumen

La gestión de la movilidad humana en España y la UE ha estado presidida en las últimas décadas por una orientación de seguridad que no prioriza reforzar una perspectiva de Derechos Humanos. La generalización del uso de las nuevas tecnologías en el control migratorio y fronterizo añade nuevos retos en esta materia, como una configuración político-jurídica de su aplicación respetuosa con los derechos fundamentales de las personas migrantes durante todo su periplo migratorio. En el presente artículo analizamos el estado en que se encuentra este proceso a nivel europeo y español, que desafortunadamente incide en la misma línea que en la etapa “analógica”, proponiendo alternativas para una aplicación “virtuosa” de las nuevas tecnologías a la gobernanza de la movilidad humana.

Palabras clave

Políticas migratorias, derechos fundamentales, nuevas tecnologías, fronteras, integración.

Abstract

Management of human mobility in Spain and EU in the last decades has been presided for a security guideline that doesn’t prioritize a Human Rights perspective. Generalization of using new technologies in borders control and in migration policies brings new challenges in this field, such as achieving a legal-political configuration of its implementation respectful with fundamental rights of migrant people during hole migratory journey. This paper analyzes the current situation of this process at Spanish and European level, that unfortunately continues the same line of “analogical stage”, proposing “virtuous” alternatives of new technologies applications to human mobility governance.

Keywords

Migration policies, fundamental rights, new technologies, borders, integration.

Sumario: I. Planteamiento inicial. II. La aplicación de las nuevas tecnologías a la gestión de los flujos migratorios en tránsito y frontera. III. El impacto de las herramientas digitales en la integración y el ejercicio de la ciudadanía de las personas de origen migrante en los países de destino. IV. Reflexión final. V. Bibliografía.

I. PLANTEAMIENTO INICIAL

¿Cómo está afectando la incorporación de las nuevas tecnologías a las políticas de control de fronteras y de integración de las personas migrantes en España y la UE? ¿Es posible que esa incorporación se lleve a cabo de una forma respetuosa con los derechos fundamentales? A lo largo de este artículo trataremos de dar respuesta a estas preguntas. Para ello pondremos de relieve la incidencia negativa en los derechos de las personas migrantes que está teniendo la “tecnificación” de las fronteras y de las estrategias de integración españolas y europeas en diferentes niveles, tanto en lo relativo a la propia libertad circulación, como a la privacidad (intimidad y protección de datos de carácter personal), al acceso adecuado a la protección internacional o a los recursos sociales, entre otros. Por el contrario, también apuntaremos posibles aplicaciones de las nuevas tecnologías en este ámbito que pueden reforzar la vigencia de los derechos fundamentales de las personas migrantes.

Para la consecución de estos objetivos revisaremos los principales documentos políticos, herramientas normativas, jurisprudencia y aportaciones doctrinales sobre esta materia en el contexto europeo y español, desde una perspectiva que va más allá de lo estrictamente político-jurídico y que pretende estar imbricada en la realidad social.

Somos conscientes de que algunas de las reflexiones que haremos en el apartado 3º sobre determinados conceptos, especialmente los vinculados a la “discriminación algorítmica”, son por supuesto igualmente aplicables a las herramientas tecnológicas analizadas en el 2º, pero entendemos que las materias tratadas en el capítulo en el que se exponen facilitan una mejor contextualización y comprensión.

Antes de entrar en el análisis específico de nuestro objeto de estudio, entendemos imprescindible realizar unas consideraciones generales para enmarcarlo. El abordaje político, mediático y normativo de la movilidad humana parte de un “pecado original”: desconocer que es un fenómeno consustancial a la humanidad, es decir, que el ser humano es en esencia un “ser migrante”. Por el contrario, se ha impuesto la perspectiva de las migraciones como un problema sobrevenido en el contexto contemporáneo necesitado de solución (Domínguez 2019). Esta desviación inicial provoca que se genere una “realidad construida” de la movilidad humana, presidida por su criminalización y la representación de los flujos migratorios como amenazantes avalanchas descontroladas, que demanda medidas político-jurídicas excepcionales que no tienen entre sus prioridades el respeto de los Derechos Humanos de las personas migrantes (Arce 2019).

La “realidad construida” de las migraciones se asienta en unos mitos que poco tienen que ver con su “realidad real”. Domínguez, Cózar y Rodríguez han realizado un completo estudio sobre los mismos, apuntaremos una sumaria relación de los más relevantes (Domínguez 2019 y Cózar y Rodríguez 2019).

En primer lugar, se ha asentado en la opinión pública de los principales países de destino de las migraciones transnacionales contemporáneas (Europa Occidental y Norteamérica, esencialmente) que el advenimiento de la globalización ha abierto un periodo explosivo de movilidad humana sin precedentes. Sin embargo, recientes estudios sobre esta movilidad señalan que la humanidad ya ha vivido movimientos de población proporcionalmente similares en otros momentos históricos (finales del siglo XIX y primer tercio del XX, p.ej.) y que la tasa migratoria en relación con la población total se ha mantenido relativamente estable en las últimas décadas. Coincidimos con Domínguez en señalar que en esa percepción social de flujos descontrolados influye el hecho de que la ausencia de vías migratorias legales y seguras conviertan a las rutas de acceso informales en las únicas posibles para un porcentaje importante de la población mundial que desea migrar, y que, una vez llegadas a los países de destino, las personas migrantes se ven abocadas, aunque sea temporalmente, a la irregularidad administrativa (Domínguez 2019, 25 y ss.).

La búsqueda de la mejora de las condiciones de vida es el principal motor de la movilidad humana a lo largo de la Historia (Arce 2018). Sin embargo, ello no significa que el perfil mayoritario de las migraciones internacionales sea el de personas en situación de extrema pobreza, que se identifican con un riesgo para la sostenibilidad de los sistemas de protección social y los mercados laborales de los países de destino. Las cifras lo desmienten. Por ejemplo, África, región del planeta con un menor índice de desarrollo humano, tiene un peso muy relativo en la movilidad humana transnacional. Entre los 20 principales países emisores de migraciones internacionales, tan solo uno es africano, Egipto, que ocupa el último puesto en ese ranking (McAuliffe y Triandafyllidou 2022). Por otra parte, es muy diferente el deseo y/o necesidad de migrar y la posibilidad real de hacerlo. En un estudio de Gallup para la OIM de 2017 (Laczko, Tjaden y Auer 2017) se señalaba que tan solo un tercio de las personas que manifiestan su intención de migrar realiza acciones materiales dirigidas a llevarla a la práctica. El mismo informe destaca que esa diferencia se agudiza en los países con menos índice de desarrollo humano, y que el perfil de las personas que desean migrar se aleja del estereotipo de pobreza extrema: la mayoría proviene de zonas urbanas (75%), tiene un nivel educativo medio-alto (66%) y son jóvenes en edad laboral (el 61% tiene entre 20 y 40 años).

Centrándonos en el ámbito europeo, también existen mitos sin base real que condicionan la percepción social de las migraciones y con ello la gestión político-jurídica que hacen de este fenómeno la Unión Europea y sus Estados miembro. Un informe elaborado por Globsec en 2019 (Ráczová y otros 2019) desvela esas incongruencias en algunos de los “estereotipos migratorios” más arraigados en la ciudadanía europea.

El informe destaca que, según el Eurobarómetro, en 2018 las migraciones irregulares seguían siendo la principal preocupación de la ciudadanía europea, manifestando una sensación de “invasión descontrolada” a través de las fronteras exteriores del Sur de la UE. Sin embargo, los datos indican lo contrario, ya que las llegadas por esta vía se han desplomado alrededor de un 90% desde el año 2015, cuando se produjo la denominada “crisis de los refugiados”:

Año

Llegadas

Personas muertas o desaparecidas

2015

1.032.408

3.771

2016

373.652

5.096

2017

185.169

3.139

2018

141.472

2.277

2019

123.663

1.510

2020

95.774

1.881

2021

123.318

3.231

2022

159.410

2.439

Datos de ACNUR[2]. Incluye las llegadas a Chipre, Grecia, Italia, Malta y España.

A nuestro juicio, lo realmente llamativo es que hayan muerto o desaparecido más de 23.000 personas en la frontera Sur europea en apenas 8 años. Y significativo es que, proporcionalmente (en 2016 incluso en números absolutos), desde 2015 cada año es más peligroso tratar de acceder a Europa por estas rutas informales, fruto del incremento del control policial/militar de los límites exteriores de la UE y de la mayor implicación de los países de origen y tránsito de las migraciones en el mismo (“externalización” de las fronteras europeas).

Una de las teorías que con más fuerza se ha promovido desde los espacios político-mediáticos de la extrema derecha es la del “gran reemplazo”[3], según la cual habría un plan concertado entre el islamismo radical y la izquierda globalista para sustituir mediante las migraciones a la población europea blanca y cristiana por otra mestiza y musulmana. La ausencia de sustento racional de la teoría se ve ratificada por las cifras, ya que apenas el 5% de la población de la UE profesa la religión musulmana (incluyendo las personas europeas y las de origen migrante). Sin embargo, esas “teorías de la conspiración” calan en la población: en España ante la pregunta de “¿cuántas personas musulmanas viven en tu país?” la percepción (19%) casi quintuplica la realidad (4%) (Ráczová y otros 2019, 10-11).

¿Qué papel juegan las nuevas tecnologías en este contexto? A lo largo del artículo analizaremos con más detenimiento los impactos de la era digital en la movilidad humana. Baste ahora con adelantar que, por una parte, las nuevas vías de comunicación, especialmente las redes sociales, se han convertido en los pilares sobre los que se erige la “realidad construida” que está condicionando las políticas migratorias y de control de fronteras. Por otra parte, de forma creciente se están aplicando herramientas tecnológicas para la puesta en práctica de esas políticas, que no tienen como prioridad el respeto de los Derechos Humanos. Tanto en la gestión de fronteras como en el proceso de integración jurídica y sociolaboral de las personas de origen migrante se está consolidando un uso intensivo de las nuevas tecnologías. Indagaremos sobre ello en los próximos apartados.

Cerramos esta introducción destacando que la digitalización de la gestión de la movilidad humana está alcanzando a los niveles de la planificación general de las políticas migratorias y de fronteras, con el principal objetivo de anticipar escenarios posibles a través de “modelos” (sistemas predictivos basados en el trinomio clave del contexto digital: macrodatos, algoritmos e inteligencia artificial). Agencias de Naciones Unidas, instituciones de la UE (Comisión Europea o la EASO, p.ej.) y algunos Estados nacionales como Alemania ya están desarrollando programas de este perfil (Bither y Ziebarth 2021, 26).

II. LA APLICACIÓN DE LAS NUEVAS TECNOLOGÍAS A LA GESTIÓN DE LOS FLUJOS MIGRATORIOS EN TRÁNSITO Y FRONTERA

La percepción de la existencia de una grave amenaza a la integridad de las fronteras por parte de las migraciones irregulares ha impulsado unas políticas de control fronterizo muy restrictivas. Esta tendencia se ha visto reforzada porque, debido a la pérdida de soberanía efectiva que han sufrido los Estados-nación con la globalización, las fronteras se han constituido como un espacio donde mostrar simbólicamente uno de los reductos de poder material estatal (Wihtol de Wenden 2000, 17-18). Por ello los avances tecnológicos aplicables al control de fronteras desde una perspectiva policial y de seguridad están siendo más que bienvenidos. A pesar de lo anterior, no se puede negar que la fiscalización del tránsito de personas y mercancías por las fronteras juega un papel relevante en la lucha contra la criminalidad organizada transnacional y el “terrorismo global”, así como en el mantenimiento de ese poroso concepto de la “seguridad nacional”. Sin embargo, el refuerzo tecnológico de la gestión fronteriza no ha demostrado tener una eficacia destacada en estos objetivos, y se ha acabado aplicando prioritariamente a la represión de los flujos migratorios por vías irregulares (Serra 2019).

De esta manera, algoritmos, inteligencia artificial, Big data o el “perfilado” hace años que se utilizan en la gestión diaria de las fronteras. Podemos encontrar distintos ejemplos de ello, como la automatización/digitalización de la toma de decisiones en los sistemas de visados, principal (y muy estrecha) puerta de entrada a las vías migratorias legales y seguras. Los avances tecnológicos de los medios de transporte, especialmente vía área, facilitan la movilidad humana y han incrementado exponencialmente las solicitudes de visados de corta duración (los conocidos como “de turista”), lo que ha hecho atractiva la incorporación de las nuevas tecnologías para dotar de rapidez y eficacia a estos procesos, pero conservando unos altos estándares de “seguridad”. Es decir, tratar el mayor número de solicitudes en el menor tiempo posible, evitando al mismo tiempo “riesgos migratorios”. Para la resolución automatizada se establecen unos parámetros (p.ej., respecto a los países de origen: algunos contarán con exención de visado, otros lo necesitarán como regla general o lo tendrán restringido, también habrá un listado de “países seguros” donde podrán ser devueltos los solicitantes que vean rechazadas sus solicitudes), se recaban datos de los solicitantes (desde legales-advos. a biométricos), se tratan (mediante bases de datos, algoritmos, técnicas de perfilado…) y se cruzan con dichos parámetros para obtener un resultado positivo o negativo. Entendemos que este tipo de sistemas no dan una respuesta adecuada a las exigencias relacionadas, entre otras cuestiones, con el acceso a la protección internacional (con una destacada incidencia en el “principio de no devolución”) y son terreno abonado para la inseguridad jurídica y los sesgos discriminatorios.

Algunas de estas carencias se están poniendo de manifiesto en los países que han empezado a implementar dichos sistemas. Llama la atención la “Extreme Vetting Initiative” impulsada por el ICE (Immigration and Customs Enforcement) de los EE. UU., que incluye el rastreo de las redes sociales de los aplicantes a los visados del país norteamericano para valorar si pueden “contribuir positivamente a la sociedad y/o al interés nacional”, requisito abierto e indefinido (Bither y Ziebarth 2021, 7 y ss.). Por su parte, el Ministerio del Interior del Reino Unido puso en marcha el “Streaming Tool”, un sistema de decisión automatizada sobre visados que realizaba una primera criba en las solicitudes de visado para agilizar un segundo análisis más detallado, etiquetando con el color rojo las que tenían más opciones de ser rechazadas, con el amarillo a las que tenían una posición intermedia y con el verde a aquéllas con menos impedimentos para su aceptación. Organizaciones de la sociedad civil británica impugnaron judicialmente el sistema alegando que contenía un sesgo negativo respecto a las personas de origen africano, algo que fue certificado por los tribunales, que requirieron al Ministerio del Interior la retirada del “Streaming Tool” (Valdivia y Sánchez 2022).

Más allá de los visados, encontramos la intervención de las herramientas tecnológicas en diferentes aspectos de movilidad humana, desde lo instrumental (el servicio de inmigración finlandés ha habilitado un asistente digital de reconocimiento de idiomas en los procesos de asilo) a cuestiones más “de fondo” (la oficina federal alemana de migraciones y refugiados creó Infoshield, un algoritmo para detectar publicaciones online que pudieran estar relacionadas con redes de tráfico y/o trata de personas) (Bither y Ziebarth 2021, 7 y ss.).

Estas primeras manifestaciones de “tecnofronteras”[4] apuntan los retos respecto a los derechos fundamentales que nos ocuparán en el presente texto. Desde como blindar la intimidad o la protección de datos en la aplicación de la tecnología digital, hasta garantizar un acceso adecuado al derecho de asilo o a la tutela judicial efectiva en el contexto de la automatización de la toma de decisiones en los procedimientos vinculados a la movilidad humana, pasando por las “externalidades discriminatorias” del sistema. Podemos adelantar que las primeras respuestas a esos retos no son nada alentadoras desde una perspectiva de Derechos Humanos.

Aunque la humanidad ha vivido en el pasado etapas de movilidad humana transnacional destacadas, es un hecho objetivo que la era tecnológico-digital ha reforzado la dimensión global de las migraciones. Por ello, correlativamente han emergido estrategias supranacionales de control de fronteras en las que tienen un marcado protagonismo las nuevas tecnologías. Ya en 2005, algunos países UE (Alemania, Austria, Bélgica, España, Francia, Luxemburgo y Países Bajos) firmaron el Tratado de Prüm con el objetivo de luchar contra el terrorismo, la delincuencia transfronteriza y la migración ilegal. Mediante sendas decisiones del Consejo UE (2008/615/JAI y 2008/616/JAI) las previsiones del tratado se incorporaron al ordenamiento general de la Unión. Este instrumento internacional facilita que los Estados compartan de forma directa e inmediata, entre otra información, datos de carácter personal (genéticos, huellas dactilares…). Se puede observar cómo se vinculan desde etapas tempranas las migraciones con fenómenos delictivos graves, aplicándoseles las mismas herramientas para su gestión (Serra 2019, 314), que por su propia naturaleza son eminentemente restrictivas.

En este contexto de transnacionalización del control de fronteras y de la movilidad humana, la UE se ha convertido en el espacio de referencia, tanto desde la perspectiva supranacional como en la de su “tecnificación”. En este doble sentido debemos destacar el Programa de Estocolmo[5], que pretende construir un Espacio de Libertad, Seguridad y Justicia (ELSJ) en la Unión, estableciendo como objetivos prioritarios, entre otros, la lucha contra la delincuencia organizada, el terrorismo y la inmigración por vías irregulares. Para su consecución considera imprescindible una modernización de los instrumentos de trabajo para gestionar el flujo de información sobre estas materias de forma eficaz y adecuada, movilizando las herramientas tecnológicas necesarias[6]. Dentro de esas herramientas sobresalen las bases de datos que recogen una ingente cantidad de información sobre “personas de interés” para el control fronterizo europeo, de las que haremos una breve referencia a continuación.

La piedra jurídica angular del sistema de fronteras UE es el Código de fronteras Schengen (Reglamento UE 2016/399, modificado por el Reglamento UE 2017/458), del que dimana el Sistema de Información Schengen (SIS), que ya cuenta con una versión actualizada (SIS II, Reglamento UE 2018/1862)[7]. Esta base de datos trata de fomentar la cooperación policial, administrativa y judicial entre instituciones europeas (EUROPOL y EUROJUST, p.ej.) y los Estados miembro (autoridades policiales y judiciales) en los ámbitos penal, fronterizo y migratorio. El SIS recoge, por una parte, información sobre bienes que se han perdido o están relacionados con actividades delictivas, y por otra, de personas desaparecidas, en busca y captura por cuestiones criminales o de interés por su estatus migratorio. Ya desde los cimientos del sistema de “tecnofronteras” encontramos el abordaje (político, jurídico, administrativo y ahora tecnológico) conjunto de fenómenos delincuenciales y las migraciones, fomentando la criminalización de estas últimas.

Otra de las bases de datos clave es el Sistema de Información de Visados (VIS) (Reglamento CE 767/2008), que facilita el intercambio de datos sobre visados de corta duración en el espacio Schengen. Su importancia reside en que estos visados son la principal vía de acceso legal y segura a territorio europeo para la mayoría de nacionales de terceros países. En esta base se almacenan datos biométricos (huellas dactilares y fotografías) de los solicitantes de visados, que podrán ser utilizados en los puestos fronterizos para confirmar la legalidad de esos documentos y la identidad de sus titulares, determinar el país que debe hacerse cargo de una solicitud de asilo (Reglamento de Dublín, Reglamento UE 604/2013) y en la lucha contra el terrorismo y la delincuencia transnacional. Consideramos que el VIS adolece de las mismas limitaciones indicadas para las experiencias similares de Reino Unido y los EE. UU. respecto a la prevención de sesgos discriminatorios y de la inseguridad jurídica.

La siguiente herramienta tecnológica en este ámbito es el Sistema de Entrada y Salida (SES) (Reglamento UE 2017/2226 y el Reglamento UE 2017/2225, que modifica el Código de fronteras Schengen). Controla la entrada y salida de nacionales de terceros países por las fronteras exteriores de la UE, identificando los lugares por los que se efectúan, así como el periodo de estancia que tienen autorizado. El SES es utilizado por las autoridades policiales, fronterizas y consulares nacionales y EUROPOL, y alberga datos identificativos de estas personas (biométricos incluidos). Aunque se presenta como un instrumento ideal para la represión del terrorismo y la delincuencia organizada, su principal aplicación está siendo el control migratorio, ahondando en la confusión entre estas materias.

Por otro lado, encontramos Eurodac (Reglamento UE 603/2013), herramienta auxiliar del sistema europeo de asilo (Reglamento de Dublín). En Eurodac se almacenan, entre otras cuestiones, datos identificativos de los solicitantes de asilo (como las huellas dactilares), el Estado por el que ingresaron y en el que formularon su solicitud de protección internacional. Con ello se pretende garantizar que dichas solicitudes se formalizan en el primer Estado UE al que llegó la persona que desea acceder al estatus de refugiado y que no haya movimientos secundarios irregulares dentro del territorio europeo. Con la aplicación de EURODAC se está priorizando el aspecto del control de la movilidad interna de los solicitantes de asilo frente al correcto reconocimiento de sus derechos como potenciales acreedores de protección internacional.

El Sistema Europeo de Información y Autorización de Viajes (SEIAV-ETIAS) (Reglamento UE 2018/1240) representa un paso más allá en la sofisticación tecnológica de la gestión de las fronteras UE y en la vinculación de la movilidad humana a la perspectiva de la seguridad. El SEIAV se aplica a los nacionales de terceros países que gozan de exención de visado, para que su situación migratoria “privilegiada” no menoscabe la seguridad. El sistema filtra a través de unos indicadores de riesgo los datos disponibles del viajero en el resto de las bases de datos, con el fin de evitar que personas potencialmente relacionadas con actividades delictivas graves puedan acceder a territorio de la Unión al amparo de la exención de visado. Esta base de datos representa una “vuelta de tuerca” restrictiva a la movilidad humana en la UE, ya que presenta una herramienta pensada para favorecer la libre circulación de personas como una potencial brecha de seguridad en el control fronterizo y migratorio. No es necesario ser especialmente suspicaz para sospechar que en esos “indicadores de riesgo” estarán sobrerrepresentados determinados orígenes geográficos, niveles socioeconómicos o creencias religiosas.

Tal como hemos indicado, el transporte aéreo se ha convertido en un elemento crucial en la movilidad humana transnacional. Por ello se ha creado el Registro de Nombres de los Pasajeros (RNP/PNR) (Directiva UE 2016/681), donde se recogen y gestionan datos de pasajeros de vuelos procedentes de territorio no UE. De nuevo el objetivo de esta base es detectar amenazas vinculadas al terrorismo y a la delincuencia organizada y el control migratorio. La característica diferencial del RNP es el papel protagonista que tienen entidades privadas (las compañías aéreas) en su funcionamiento, ya que son las encargadas de recopilar la información de sus pasajeros y ponerla a disposición de las autoridades nacionales y de la UE a través de este sistema. En la misma línea se encuentra el Sistema de Información Anticipada sobre los Pasajeros (API) (Directiva 2004/82/CE), en el que de nuevo las empresas de transporte recopilan datos sobre los pasajeros para hacérselos llegar de forma anticipada a la llegada al destino del vuelo a las autoridades de determinados Estados que así lo exigen. En el ámbito de la UE el API se encuentra en proceso de modificación, con el objetivo de dotar de uniformidad al sistema respecto a la información obtenida, su gestión y al nivel de exigibilidad. En cuanto a este último aspecto, será obligatoria la recogida de datos API a efectos de la gestión de las fronteras y la lucha contra la inmigración irregular en todos los vuelos que entren en el espacio Schengen, mientras que será obligatoria con fines policiales en el caso de todos los vuelos con origen o destino en la UE, así como en vuelos seleccionados dentro de la UE[8]. Es llamativa la extensión de la recogida sistemática de datos en todos los procesos de movilidad humana, llegando a afectar internamente a espacios de libre circulación consolidados como es la Unión. En la línea de lo que hemos puesto de relieve en otros trabajos recientes (Arce 2022), estas bases siguen la tendencia generalizada en la regulación de todo lo relacionado con las nuevas tecnologías de poner en manos de entidades privadas la responsabilidad de garantizar derechos básicos de la ciudadanía, en este caso de los usuarios del transporte aéreo, opción que se está demostrando que no es la mejor estrategia para alcanzar ese objetivo.

Junto a estas herramientas de gestión de la información en el control de fronteras a efectos migratorios y de lucha contra la criminalidad transnacional, no hay que olvidar el rol protagonista de la Agencia UE Frontex en esta materia (Reglamento UE 2016/1624). La propia agencia afirma que entre sus competencias está[9]: Evaluar los riesgos para la seguridad en las fronteras de la UE…y las pautas y tendencias de la migración irregular y de las actividades delictivas transfronterizas… / Intercambio de información sobre actividades delictivas…recopilada en las fronteras con las autoridades nacionales…, Europol y otras agencias europeas… Incluye información sobre personas sospechosas de participar en actividades delictivas, como el tráfico ilícito de inmigrantes, trata de seres humanos y el terrorismo / Investigación:… garantizar que las nuevas tecnologías satisfagan las necesidades de las autoridades de vigilancia fronteriza / Albergar la unidad central del SEIAV-ETIAS…para tramitar las solicitudes en estrecha cooperación con las unidades nacionales de los Estados miembros…

Más allá de esa función de coordinación del control de fronteras que puede llevar a cabo Frontex, es necesario garantizar que todo el despliegue tecnológico descrito está dotado de coherencia e “interoperabilidad, sin que ello menoscabe los derechos fundamentales potencialmente afectados. Para la consecución de estos objetivos desde la UE se ha impulsado un marco normativo cuyos pilares son el Reglamento (UE) 2019/817 (relativo al establecimiento de un marco para la interoperabilidad de los sistemas de información de la UE en el ámbito de las fronteras y los visados) y el Reglamento (UE) 2019/818 (relativo al establecimiento de un marco para la interoperabilidad entre los sistemas de información de la UE en el ámbito de la cooperación policial y judicial, el asilo y la migración). Si en lo concerniente a la “coherencia e interoperabilidad” de los diferentes elementos que constituyen las “tecnofronteras” estos reglamentos se pueden anotar algunos logros, desde luego no puede afirmarse lo mismo respecto a la meta de evitar el menoscabo de los derechos de las personas que transitan por ellas.

Ambos reglamentos prevén la creación del Portal Europeo de Búsqueda (PEB), una herramienta tecnológica que abriría la puerta a la información contenida en el SIS, VIS, SES, Eurodac y el SEIAV, junto a las bases de datos que gestionan Europol, Interpol y al Sistema Europeo de Información de Antecedentes Penales: Información sobre condenas de nacionales de terceros países (ECRIS-TCN) (Reglamento UE 2019/816). Podrán hacer uso del PEB las autoridades UE y de los Estados miembro que tengan acceso a al menos una de las bases del sistema, teniendo que respetar los requisitos legales establecidos en cada una de ellas. Es destacable que los Reglamentos (UE) 2019/817 y 2019/818 han impulsado el Servicio de correspondencia biométrica compartido (SCB compartido) que almacenará plantillas biométricas obtenidas a partir de los datos … almacenados en el RCDI[10] y el SIS, y permitirá consultar datos biométricos a través de varios sistemas de información de la UE… (arts. 12 Reglamentos UE 2019/817 y 2019/818).

A nuestro juicio, el volumen y características de los datos almacenados en las bases que acabamos de describir, el número de agentes con capacidad de acceso, las múltiples opciones de aplicación o la velocidad en el tratamiento de datos[11], a lo que se suma la criminalización (directa e indirecta) de las migraciones que conlleva su constante tratamiento conjunto con cuestiones de seguridad, hacen prácticamente imposible cumplir unos estándares mínimos de garantía de los derechos fundamentales de las personas migrantes. En este sentido, y tal como veremos a continuación, la protección de datos de carácter personal es el derecho impactado en primera instancia por esta nueva etapa tecnológica-digital del control de fronteras y la gestión de las migraciones en la UE. Sin embargo, la libertad de circulación, el derecho a la intimidad, la tutela judicial efectiva o el acceso adecuado a la protección internacional también se ven en muchas ocasiones vulnerados en este contexto a través de una gestión inadecuada de los datos personales.

Todas las normas UE que sostienen este sistema de “tecnofronteras” reenvían a la regulación europea de protección de datos, en un intento formal y teórico de garantizar su indemnidad (Arce 2022, 38 y ss.). El art. 8 de la Carta de Derechos Fundamentales UE (CDFUE) y el Reglamento 2016/679 (Reglamento General de Protección de Datos -RGPD-) establecen un marco de principios de tratamiento y de derechos de las personas titulares de los datos:

a)Principios (arts. 5 a 11 RGPD): Licitud, lealtad y transparencia / Exactitud de los datos / Confidencialidad / Tratar “los menos datos posibles durante el tiempo estrictamente necesario” / Consentimiento informado del interesado como base del tratamiento, salvo las excepciones legalmente establecidas / Existencia de categorías de datos que merecen una especial protección (entre ellos los datos biométricos dirigidos a identificar de manera unívoca a una persona física).

b)Derechos (arts. 12 a 23 RGPD): Transparencia e información al interesado por parte del responsable del tratamiento / Derechos ARCO (acceso, rectificación, cancelación y oposición) / Derecho de supresión (“derecho al olvido”) / Derecho de limitación del tratamiento de datos en determinados supuestos / Derecho de portabilidad de los datos.

En el sistema digital de control de fronteras expuesto muchos de estos principios se ven intensamente tensionados. Así, aspiraciones como la de tratar los datos estrictamente necesarios solo el tiempo necesario quedan vacías de contenido con herramientas como el PEB. O la generalización del uso de datos biométricos dirigidos a identificar de manera unívoca a una persona física en las “tecnofronteras”, dejan sin sentido su consideración de información especialmente protegida (art. 9.1 RGPD). Igualmente, respecto a las bases de datos analizadas, el ejercicio de los derechos ARCO o garantizar que el consentimiento informado del interesado sea la llave del tratamiento es una quimera para un porcentaje relevante de las personas afectadas, debido a su situación de vulnerabilidad (migrantes en situación irregular, solicitantes de asilo, menores que viajan solos, potenciales víctimas de trata…) (FRA 2018).

La transparencia es otra de las grandes sacrificadas en este contexto, tanto “a priori” como “a posteriori”. Desde la primera perspectiva temporal, porque es prácticamente imposible dar una información comprensible y clara a las personas interesadas de todos los posibles destinos que pueden tener los datos personales recopilados, y muchos más en el contexto de los expeditivos y poco garantistas procedimientos administrativos y protocolos policiales que se llevan a cabo en las fronteras europeas. En cuanto a la segunda, porque tampoco existen en la UE protocolos o agencias que evalúen y auditen el funcionamiento adecuado de estas bases de datos. Un ejemplo reciente de la falta de transparencia en el despliegue de las “tecnofronteras” europeas ha sido la resistencia de la Comisión europea a facilitar información a un eurodiputado alemán sobre el proyecto iBorderCtrl, que pretende desarrollar detectores de mentiras para reforzar el control de las fronteras exteriores de la Unión. Dicha negativa ha sido parcialmente rebatida por el Tribunal General de la UE (TGUE) (Sentencia de 15/12/2021, asunto T-158/19) (Valdivia y Sánchez 2022, 52).

Los esfuerzos de la UE para incorporar recursos tecnológicos al control de fronteras han trascendido a su espacio geográfico. La UE firmó en 2004 un acuerdo con Estados Unidos[12] sobre intercambio de datos de pasajeros aéreos, por el que se daba acceso al US Department of Homeland Security (DHS) a los datos de la base PNR prácticamente sin restricciones. Sin embargo, el Tribunal de Justicia de la Unión Europea (TJUE)[13] determinó que dicho acuerdo no se podía firmar en esos términos, reduciendo drásticamente los datos accesibles por parte del DHS[14]. Un acuerdo similar fue suscrito con Australia en 2012[15]. El siguiente paso en este camino lo representó la propuesta de acuerdo con Canadá[16] en la misma materia, para el que el Parlamento UE solicitó en 2015 un dictamen al TJUE. El alto tribunal europeo concluyó en 2017, en la misma línea que en su resolución respecto al instrumento formalizado con EE. UU., que el acuerdo euro-canadiense suponía una injerencia en el derecho a la intimidad y a la protección de datos de una intensidad no justificada y sin las garantías suficientes, y que por ende no podía ser formalizado en los términos inicialmente previstos[17]. Siguiendo la estela de la jurisprudencia del TEDH, el TJUE está sirviendo de contrapeso, aunque sea parcial, a algunos de los excesos que se cometen en la incorporación de las nuevas tecnologías al control migratorio y de fronteras en la UE.

La pandemia de la COVID-19 ha supuesto un nuevo impulso a la gestión tecnológica de las fronteras europeas en todas sus dimensiones. A modo de ejemplo podemos destacar el impacto de la proliferación de herramientas digitales en los procedimientos de acceso al asilo, una cuestión sensible cuando se analizan las fronteras desde una perspectiva de Derechos Humanos. La Asylum Information Database (AIDA), impulsada por el European Council on Refugees and Exiles (ECRE), ha elaborado un informe sobre esta materia, del que se pueden extraer algunas conclusiones interesantes (AIDA 2021). En primer lugar, el documento destaca la inexistencia de unas reglas comunes a nivel de la Unión respecto a la digitalización de los procedimientos de asilo, por lo que cada Estado miembro la ha ejecutado según sus criterios.

Por una parte, algunos Estados han digitalizado trámites burocráticos como la petición de citas de atención o el registro como solicitantes en el sistema de asilo. Estas decisiones pueden parecer razonables en un contexto donde era prioritario el evitar el contacto personal por razones sanitarias, y necesarias para agilizar sistemas colapsados ya desde etapas previas a la pandemia. Teóricamente, dichas herramientas tecnológicas no deberían tener una incidencia negativa en los derechos de los solicitantes de asilo. Sin embargo, durante el año 2020, cuando se pusieron en marcha estas medidas, se produjo un significativo descenso en las solicitudes de asilo en los países UE respecto a 2019 (-34%)[18]. En esta drástica reducción ha influido el cierre de fronteras vinculado a la pandemia, aunque a nuestro juicio el perfil de las personas solicitantes de asilo es especialmente vulnerable a las consecuencias de la brecha digital, y por ende tienen acusadas dificultades de acceso a estos sistemas digitales.

Junto a las cuestiones administrativas, otras fases del procedimiento de asilo más sustantivas también se han visto afectadas por el proceso de digitalización. Entre ellas destaca la entrevista, momento clave tanto para la admisión a trámite de las solicitudes de asilo, como del resultado final de las que son admitidas en primera instancia. En varios países (entre ellos España) se han incorporado las videoconferencias para estas entrevistas, y ello hace surgir dudas respecto a un proceso con garantías para las personas solicitantes de asilo: el respeto a la privacidad, generar un entorno de confianza, dar asistencia jurídica adecuada o una traducción de calidad son derechos del solicitante durante su entrevista respecto de los cuales hay una mayor probabilidad de vulneración en un ámbito digital en comparación con el analógico.

Para cerrar este apartado nos referiremos al “etiquetado/perfilado”, a través del cual se condensan todos los resultados obtenidos del despliegue tecnológico en las fronteras europeas[19]. En este sentido, la reiterada vinculación de la movilidad humana con fenómenos delictivos graves como el terrorismo internacional es un factor decisivo, ya que la principal justificación sociopolítica de la relevante inversión económica y la restricción de derechos fundamentales asociadas a las “tecnofronteras” es la lucha contra estos delitos. Se utiliza la información obtenida, almacenada y compartida en las bases de datos “fronterizas” para la elaboración de perfiles de sospechosos de cometer actos de terrorismo o de criminalidad organizada transnacional, ya sea para impedir su ingreso en territorio europeo o para su represión penal.

Incluso Naciones Unidas, a través de su Consejo de Seguridad, establece perfiles de personas presuntamente conectadas a acciones delictivas como crímenes de guerra o contra la humanidad, terrorismo internacional… con el objetivo de establecer en su contra sanciones y/o restricciones de derechos, como la libertad de circulación. Estas “listas negras”, elaboradas en gran medida en base al perfilado fronterizo, también se utilizan en la UE (Serra 219, 324 y ss.). La limitación de derechos que conlleva la inclusión en estos listados es tan intensa que puede determinar el veto al acceso a la protección internacional[20], aunque se exigen determinadas garantías. La jurisprudencia del TJUE obliga a que esos listados sean actualizados periódicamente y sean susceptibles de control judicial[21]. En la misma línea transita el acuerdo suscrito en 2016 entre la UE y E.E.U.U., conocido como el “Umbrella Agreement»[22], sobre la protección de los datos personales en relación con la prevención, la investigación, la detección y el enjuiciamiento de infracciones penales. El instrumento trata de hacer compatible la cooperación internacional en la lucha contra la delincuencia transfronteriza mediante la puesta en común de datos personales y la elaboración de perfiles en base a ellos con el respeto a la intimidad y la protección de datos de las personas afectadas, estableciendo límites y garantías.

A pesar de las limitaciones que acabamos de describir, el especial celo con el que se aplica el “etiquetado-perfilado antiterrorista” en el control fronterizo inevitablemente provoca un sesgo negativo que afecta a las personas migrantes, ya que por razones obvias son las que con mayor frecuencia e intensidad se ven sometidas a dicho control. Y ello a pesar de que, paradójicamente, la inmensa mayoría de los autores de los principales atentados vinculados al terrorismo internacional en la UE acaecidos en los últimos años o eran nacionales de un Estado miembro o al menos residentes de larga duración en territorio europeo, por lo que ese constante perfilado fronterizo no podía ser una herramienta eficaz para su prevención (Arce 2019, 150).

El etiquetado/perfilado de las personas migrantes en frontera va más allá de esa conexión de la movilidad humana con la criminalidad transnacional. También se aplica en lo relativo a la gestión de las migraciones en sentido estricto. Se generan unas “categorías migratorias” jerarquizadas a las que se le asignan diferentes niveles de reconocimiento de derechos, siendo esencial el etiquetado de las personas migrantes desde su primer contacto con las fronteras para ser incluidas en la categoría que les corresponda, que predeterminará su periplo migratorio[23]. Así, se etiqueta a un perfil de migrantes como “irregulares” (formalmente no deseados) y a otros como “regulares” (a los que se les franquea las vías legales de ejercicio de derechos), también se distingue entre migrantes “económicos” y “refugiados”, con su correlativo estatus socio-jurídico diferenciado (superior el de los segundos respecto al de los primeros).

En este perfilado migratorio fronterizo, la “frontera Sur española” se ha convertido en un espacio pionero en la aplicación de las herramientas políticas, jurídicas, administrativas, policiales y tecnológicas imprescindibles para ello (López-Sala y Moreno-Amador 2020). Inicialmente se produce un etiquetado genérico de los flujos migratorios que acceden a territorio español por dicha vía[24] como “irregulares y no deseados”, y ello se extiende al origen mayoritario de estos flujos: africano (magrebí y subsahariano).

Dentro de la segunda categoría, migrantes “económicos” vs solicitantes de protección internacional, a las personas migrantes africanas se les perfila por defecto como “económicos”. De forma previa hay que aclarar que la propia distinción hace tiempo que está cuestionada, imponiéndose paulatinamente el concepto de “flujos mixtos”. Con este término quiere ponerse de relieve que en la movilidad humana contemporánea utilizan los mismos corredores migratorios personas cuyo proyecto migratorio está sustentado en motivos socioeconómicos con otras que se ajustan al perfil clásico de “refugiado”. Incluso esa “mixtura” se da cada vez más en la persona migrante individualmente considerada, ya que en muchos lugares de origen la falta de expectativas económicas y laborales se entremezclan con conflictos de diferente tipología e intensidad (OIM 2009). Por otra parte, el continente africano tiene el dudoso honor de ser la región del planeta con un mayor nivel de inseguridad humana[25], por lo que llama la atención ese etiquetado automático como migrantes económicos a las personas de esta procedencia.

Al servicio del perfilado en la frontera Sur hemos señalado que existen mecanismos políticos, jurídicos, administrativos y tecnológicos. Entre los políticos destacan los acuerdos con los países de tránsito de las migraciones, a través de la externalización de fronteras, que realizan un filtro previo de los flujos migratorios[26]. En cuanto a las jurídicas, es un ejemplo paradigmático el intento de dar cobertura legal bajo la denominación de “rechazos en frontera” a las “devoluciones en caliente”, con las que de forma expeditiva se aplican las consecuencias materiales del etiquetado[27]. No son menos relevantes los administrativos, como la instalación de oficinas de asilo en los pasos fronterizos de Ceuta y Melilla, que ha sido utilizada como justificación para las devoluciones en caliente[28]. Por último, las nuevas tecnologías también tienen una relevancia crucial en el perfilado, tanto por exceso como por defecto.

Por “exceso”, podemos resaltar el Sistema Integrado de Vigilancia Exterior (SIVE)[29], un complejo dispositivo técnico que desde hace dos décadas se ha ido desplegando en la frontera Sur española con el objetivo de controlar los flujos migratorios irregulares por vía marítima. Bases de datos como el SIS y Eurodac también juegan su papel en este contexto. Hablamos de exceso en este caso porque, a pesar de lo que el relato político-mediático “oficial” lleva décadas grabando a fuego en la opinión pública, la frontera Sur en una vía de entrada de los flujos migratorios (regulares e irregulares) en España cuantitativamente testimonial[30]. Por lo tanto, es absolutamente desproporcionado el espectacular despliegue tecnológico en esta zona geográfica, tanto por su coste económico como por su impacto negativo en materia de derechos fundamentales.

Por “defecto”, llama la atención la falta de protocolos y de una utilización adecuada de los recursos tecnológicos disponibles para la detección y protección de colectivos vulnerables en frontera (víctimas de trata o menores no acompañados, p.ej.)[31]. Otra realidad que clama por una aplicación de las nuevas tecnologías es la de las personas migrantes desaparecidas y muertas sin identificar en frontera. Un porcentaje muy significativo de las personas que fallecen tratando de acceder por vías irregulares a la frontera Sur europea en general, y en la española en particular, no pueden ser identificadas. Otro tanto se puede decir de las desparecidas respecto a su localización. Fuera del ámbito migratorio, las técnicas de identificación de cadáveres o las bases de datos de ADN en la búsqueda de personas desaparecidas se han desarrollado y utilizado ampliamente en los últimos años, lo que hace más clamorosa su omisión cuando de migraciones se trata (Sánchez, Sánchez y Arce 2021).

Tal como señalaremos en las conclusiones, en este aspecto sí que consideramos que las nuevas herramientas técnicas y digitales podrían tener un “efecto virtuoso” para la garantía de los derechos de estos sectores tan vulnerables, pero desafortunadamente estas aplicaciones no parecen ser una prioridad política.

III. EL IMPACTO DE LAS HERRAMIENTAS DIGITALES EN LA INTEGRACIÓN Y EL EJERCICIO DE LA CIUDADANÍA DE LAS PERSONAS DE ORIGEN MIGRANTE EN LOS PAÍSES DE DESTINO

La percepción distorsionada de la realidad migratoria global y europea impregna todo el abordaje social, político y jurídico de la movilidad humana. Ya hemos analizado la perspectiva “policial-defensiva” de las “tecnofronteras”, que determina que las vías legales y seguras de acceso a territorio UE sean prácticamente inexistentes para las personas procedentes de las regiones empobrecidas del planeta. Ello, paradójicamente, fomenta las migraciones por medios irregulares y, por ende, el incremento de personas extranjeras sin documentación en los países de destino. Lo anterior coadyuva a una gestión igualmente restrictiva de la integración/ejercicio de la ciudadanía, y genera un caldo de cultivo perfecto para las instancias político-mediáticas que incentivan la realidad construida de las migraciones y el sostenimiento de este círculo vicioso (Domínguez 2019, 42-43). Por lo tanto, en realidad el control migratorio no termina ni mucho menos cuando la persona migrante logra franquear todos los obstáculos físicos, administrativos y técnico-digitales que se han establecido en los límites geográficos de los países de destino. Se constituyen igualmente “fronteras interiores” que están íntimamente vinculadas con el etiquetado-perfilado que hemos descrito en el apartado anterior, que predeterminan el acceso a derechos básicos por parte de las personas migrantes, y con ello sus opciones para una integración adecuada. Las nuevas tecnologías se abren camino en esta etapa del proceso migratorio, en una íntima conexión e interdependencia con las desplegadas en las previas (tránsito y frontera).

Inteligencia artificial (IA), algoritmos y técnicas de perfilado se utilizan cada vez más en cuestiones clave para la integración de las personas de origen migrante en las sociedades de acogida. Los defensores de esta estrategia sostienen la objetividad y eficacia de esas herramientas, pero son múltiples las voces que advierten de los riesgos discriminatorios de un uso masivo e irreflexivo de las nuevas tecnologías en materias vinculadas con los derechos fundamentales[32].

Uno de los ámbitos especialmente sensible para la integración de las personas de origen migrante es el acceso a los derechos sociales, donde se ha producido un proceso de digitalización relevante en los últimos años. El Relator ONU sobre la extrema pobreza y los Derechos Humanos, en un informe de 2019 acerca de las implicaciones del “estado del bienestar digital”[33], llama la atención respecto, entre otras, a dos cuestiones esenciales. En primer lugar, alerta sobre el creciente papel de las empresas privadas tecnológicas en la gestión de los sistemas digitales de recursos sociales[34]. Por otra parte, denuncia como la aplicación de los avances tecnológicos en el acceso a los derechos sociales puede tener el efecto de ahondar en la criminalización de la pobreza, ya que está poniendo el acento mucho más en la detección de fraudes y la eficiencia económica que en una mejor garantía del disfrute efectivo de los recursos del Estado del bienestar por parte de los colectivos vulnerables (entre ellos las personas de origen migrante). En este contexto, los sectores sociales afectados por situaciones de exclusión ven como se consolidan estereotipos negativos en su contra, se obstaculiza la reducción de las diferencias sociales y se les dificulta el acceso a estos sistemas al estar afectados por la brecha digital (Soriano 2021).

Con la consolidación del Estado del bienestar digital a nivel internacional se han ido documentado (en incluso judicializando) situaciones donde emergen los “daños colaterales” discriminatorios, con un destacado impacto en personas migrantes y/o refugiadas. Por ejemplo, algunos Estados están testando programas informáticos (desarrollados una vez más por instituciones privadas[35]) que prometen buscar el mejor emplazamiento para los recursos habitacionales destinados a los solicitantes de asilo. Se ha puesto de relieve que la toma de decisiones automatizadas en estos ámbitos es susceptible de consolidar situaciones contraproducentes para la integración de las personas refugiadas (no es difícil intuir que acaben siendo designados como “mejores emplazamientos” zonas donde ya residen colectivos vulnerables) y/o estandarizar respuestas en realidades donde deben primar soluciones individualizadas alcanzadas tras un análisis detenido y multidisciplinar (Bither y Ziebarth 2021, 21-22).

Uno de los primeros casos donde ha recaído una sentencia judicial sobre el impacto de la utilización de esta tecnología en la gestión de los recursos sociales lo encontramos en Países Bajos. El gobierno neerlandés desarrolló un sistema informático denominado “Systeem Risico Indicatie” (SyRI) con el objeto de detectar fraudes en la concesión de prestaciones sociales. Con la aplicación del SyRI se acabó acusando erróneamente de fraude a muchas familias, que tuvieron que devolver las ayudas, estando sobrerrepresentadas entre ellas personas de origen migrante en general, y de procedencia marroquí y turca en particular. Una organización de la sociedad civil recurrió judicialmente el sistema, que fue declarado nulo por el Tribunal de Distrito de La Haya[36], aunque basó la nulidad en la vulneración del derecho a la intimidad de las personas afectadas y en la falta de transparencia del algoritmo utilizado por el SyRI, pero no en los resultados discriminatorios de su aplicación (Añón 2022). Estos últimos serían a nuestro juicio una prueba práctica del aumento del riesgo de criminalización de la pobreza derivado de estas “malas praxis tecnológicas”.

Aunque excede el objeto de estas líneas realizar un análisis detallado de los vínculos entre el uso de los algoritmos y la discriminación desde una perspectiva social, política y jurídica, antes de continuar entendemos que es imprescindible realizar unas acotaciones al respecto.

En primer lugar, hay que tener en cuenta las características de la “discriminación algorítmica”: invisibilidad (por la falta de transparencia en la elaboración de las herramientas, en su aplicación y en la posible depuración de responsabilidades por sus efectos), intensidad (gran potencial discriminatorio expansivo) y complejidad (la discriminación puede emanar del diseño del algoritmo, de su aplicación o de ambas) (Añón 2022, 35-36). Por otra parte, los algoritmos y técnicas de perfilado están creadas por seres humanos en un contexto sociopolítico determinado, por lo que es normal que reproduzcan y expresen las dinámicas discriminatorias estructurales ya consolidadas en él (Soriano 2021). La discriminación estructural puede introducirse de forma directa/consciente (por ejemplo, estableciendo como objetivo del algoritmo detectar teóricos fraudes en las ayudas sociales, en vez de remover los obstáculos que los colectivos excluidos tienen para acceder a las mismas) o de forma indirecta/inconsciente (mediante los errores de diseño o “sesgos” que puedan introducirse involuntariamente).

Se suele hacer hincapié en los “sesgos” cuando se analiza el impacto de los algoritmos en los derechos de la ciudadanía. Una de las acepciones del término sesgo admitida por la RAE es: Error sistemático en el que se puede incurrir cuando al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras.

En el ámbito que nos ocupa, el “error sistemático” suele estar provocado por el hecho de no incluir todas las variables y/o perspectivas necesarias en el sistema de que se trate para una toma de decisiones correcta en situaciones complejas, provocando una prevalencia injustificada de unos resultados sobre otros. Es lo que ocurrió en el caso analizado del sistema SyRI en los Países Bajos. Por supuesto debe ser una de las prioridades en el desarrollo de los sistemas de toma de decisiones automatizadas la erradicación de los sesgos (las personas de origen migrante suelen ser diana preferente de los mismos), aunque consideramos pertinente la advertencia que realiza la European Digital Rights (EDRI) en un reciente informe sobre este particular (Balayn y Gürses 2021). Según la organización, los esfuerzos de mitigación de los sesgos no pueden obviar la cuestión de fondo: por el momento, y no se sabe con seguridad si se logrará ese objetivo, estos sistemas no tienen la capacidad de generar unas decisiones automatizadas que afecten a derechos fundamentales con las suficientes garantías en aquellos supuestos donde una mirada cualitativa y multidisciplinar es imprescindible. De hecho, la previsión establecida por el art. 22.1 RGPD respecto a las decisiones basadas únicamente en el tratamiento automatizado es un reconocimiento implícito de esas limitaciones. Generalizar la utilización de estas herramientas tecnológicas sin tener esta perspectiva presente puede suponer una quiebra en la percepción de la legitimidad en la toma de decisiones de los poderes públicos por parte de la ciudadanía (Soriano 2021).

Ya hemos adelantado que una de las preocupaciones vinculadas a la “irrupción algorítmica” es la falta de transparencia y la complejidad aparejada a el proceso. La opacidad se extiende desde las dificultades que las compañías privadas que desarrollan los algoritmos ponen para acceder a sus características técnicas (el famoso “código fuente”)[37], a los propios diseñadores, que en ocasiones tienen serios problemas para explicar de una manera comprensible las variables que se tienen en cuenta en sus sistemas y cómo se alcanzan determinados resultados y/o previsiones (rompiendo con esa sabia máxima de “si no puedes explicarlo, no debes usarlo”) (Bither y Ziebarth 2021).

Nos parecen igualmente relevantes las reflexiones que se hacen en el citado informe de la organización Algorace acerca de cómo cuestiones que van más allá de lo estrictamente técnico van a condicionar la calidad del desempeño de los algoritmos (Valdivia y Sánchez 2022). Aunque podría suponerse que en el ámbito de la inteligencia artificial se desarrollan unas labores altamente profesionalizadas y especializadas, el proceso previo de etiquetado de los datos que servirán de parámetros a los algoritmos es muy intensivo en mano de obra, siendo llevado a cabo por personas con escasa formación y unas condiciones laborales muy precarias, sin contar en ocasiones ni siquiera con unas instrucciones precisas para llevar a cabo un cometido tan complejo. Por otra parte, las personas autoras del informe destacan la escasa diversidad existente en los equipos de trabajo del sector tecnológico en general y de la inteligencia artificial en particular, donde mujeres, personas racializadas o de origen migrante brillan por su ausencia. Es en estas fases de etiquetado de información y configuración de las bases de datos donde se van a introducir los sesgos que “contaminarán” los resultados que producirán los algoritmos que se alimentan de ellos; que estas responsabilidades sean asumidas por un personal poco formado y menos diverso, con una mala situación laboral y sin unas directrices claras no parece la mejor receta para evitar los sesgos discriminatorios.

Por lo expuesto, la estrategia político-jurídica respecto a la “discriminación algorítmica” debe de afrontar la adaptación del Derecho antidiscriminatorio a la era digital y la incorporación de la perspectiva antidiscriminatoria a la nueva regulación de la inteligencia artificial.

En el ámbito de la UE existen cuatro normas básicas en materia de lucha contra la discriminación[38]: Directiva 2000/43/CE relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico, Directiva 2000/78/CE relativa al establecimiento de un marco general para la igualdad de trato en el empleo y la ocupación, Directiva 2006/54/CE relativa a la aplicación del principio de igualdad de oportunidades e igualdad de trato entre hombres y mujeres en asuntos de empleo y ocupación (refundición) y la Directiva 2004/113/CE por la que se aplica el principio de igualdad de trato entre hombres y mujeres al acceso a bienes y servicios y su suministro. En primer lugar, hay que destacar que, aunque todas son normas del “siglo XXI”, no realizan previsiones específicas para la dimensión tecnológica de la discriminación. Otras características generales del entramado normativo antidiscriminatorio europeo agudizan las dificultades para luchar contra la discriminación algorítmica más allá de esa omisión inicial. Aunque estas directivas reconocen la posibilidad de “acciones positivas”[39] en favor de los grupos vulnerables, tanto el desarrollo por los Estados miembro como la jurisprudencia del TJUE han sido refractarios a su aprobación. Este tipo de acciones serían especialmente adecuadas para prevenir sesgos y resultados discriminatorios en el desarrollo y utilización de los algoritmos (Soriano 2021). Por otra parte, los casos de discriminación algorítmica se están definiendo como un subtipo de discriminación indirecta[40], que es la que tiene un mayor margen de justificación/legitimación (Añón 2022, 40).

A nivel nacional, la recientemente aprobada Ley 15/2022 integral para la igualdad de trato y la no discriminación (LITND) sí incorpora la perspectiva digital al Derecho antidiscriminatorio español. El art. 3 LITND incluye dentro de sus ámbitos de aplicación: servicios de la sociedad de la información, Internet, redes sociales, aplicaciones móviles, inteligencia artificial y gestión masiva de datos, así como otras esferas de análoga significación.

El art. 22 LITND establece medidas en materia de medios de comunicación, publicidad y redes sociales. Apuesta la ley por la autorregulación de las empresas privadas del sector para contribuir con el cumplimiento de esta norma, promover una imagen no estereotipada de las diferentes personas y grupos de población y mejorar la efectividad en la prevención y eliminación de contenidos que atenten contra el derecho a la igualdad en este ámbito. El art. 23 LITND se centra en la Inteligencia Artificial y mecanismos de toma de decisión automatizados, estableciendo que las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente, promoviendo para ello la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio. También determina que las administraciones deben priorizar el uso de algoritmos transparentes en su diseño y cuyas decisiones sean “interpretables”. Éstas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales y un sello de calidad de los algoritmos. Por último, la disposición adicional 1ª LITND modifica el art. 11.4 de la Ley 34/2002 de servicios de la sociedad de la información y de comercio electrónico para permitir, mediante resolución judicial, limitar el acceso a los servicios regulados por esta ley o la retirada de contenidos cuando se vulnere lo previsto en la LITND.

Reconociendo el hecho positivo que representa que la principal herramienta legal de lucha contra la discriminación en España asuma la relevancia de la variable “nuevas tecnologías”, las previsiones de la LITND adolecen de las mismas carencias que en general caracterizan el abordaje jurídico de los derechos fundamentales en la era digital: una excesiva confianza en la autorregulación de las empresas privadas del sector y el escaso poder vinculante (en los preceptos analizados hay una profusión de verbos propositivos: promover, favorecer, facilitar…).

Junto al Derecho antidiscriminatorio, el segundo foco de atención normativo respecto a la “discriminación algorítmica” es la regulación de la inteligencia artificial propiamente dicha. Se han elaborado documentos de carácter político en el contexto de la UE (como el citado Libro blanco), pero en la actualidad está en proceso de negociación en el seno del Parlamento y el Consejo el llamado a ser principal hito legislativo de la IA: un proyecto de reglamento conocido como la “Ley de inteligencia artificial” (LIA)[41]. El art. 5 del proyecto prohíbe directamente algunas aplicaciones de la IA, entre las que incluye la dirigidas a evaluar o clasificar la fiabilidad de personas físicas…atendiendo a su conducta social o a características personales o de su personalidad, cuando pueda provocar… un trato perjudicial o desfavorable hacia determinadas personas físicas o colectivos enteros en contextos sociales que no guarden relación…o que sea injustificado o desproporcionado. Algunos de los usos de la IA que afectan a personas de origen migrante que hemos analizado podrían incardinarse dentro de las previsiones del art.5 LIA. Además de insistir en la transparencia como elemento clave, una de las principales novedades del proyecto de reglamento es el establecimiento de un sistema de “niveles de riesgo” en el uso de la IA. El primero sería el de “riesgos inaceptables”, que se correspondería a las aludidas aplicaciones de la IA prohibidas. Un segundo nivel serían los usos de “riesgo alto” y el último los de “riesgo bajo”. La utilización de la IA estará permitida en estos dos últimos niveles, siendo la diferencia entre ellos que los requisitos en el diseño, uso y el régimen de responsabilidades serán más exigentes para los sistemas de IA de alto riesgo que en los de bajo. Se considerarán como de alto riesgo los usos que afecten a los derechos fundamentales. Todas las aplicaciones de la IA en las “tecnofronteras” o en las políticas integración de las personas de origen migrante que no se consideren “inaceptables” entendemos que deberían ser incluidas en el nivel de “alto riesgo”, ya que directa o indirectamente inciden en los derechos fundamentales.

Centraremos nuestra atención ahora en otra dimensión con un protagonismo indiscutible en la “realidad construida” de las migraciones, y que afecta de forma decisiva en los procesos de integración de las personas de origen migrante: el tratamiento informativo en medios digitales y en redes sociales del fenómeno migratorio. En la era digital, la información sobre las migraciones transita de la descontextualización a la información sesgada, cuando no directamente a las “noticias falsas”. En ello influyen diversos factores: la digitalización de los medios de comunicación ha transformado la manera de informar[42], Internet se ha convertido en la principal puerta de acceso a la información[43] y las redes sociales son su caja de resonancia[44].

En este escenario gana relevancia el “encuadre” o “frame” informativo en general, y el que afecta a las migraciones en particular. Matarín, García y Gómez han realizado un interesante estudio respecto al marco informativo sobre las migraciones que crea la gestión de noticias por parte de Google (Matarín, García y Gómez 2020). Los autores señalan la importancia de este encuadre, ya que determina en gran medida los temas que serán de interés social y la perspectiva de la ciudadanía sobre ellos. El relato sobre las migraciones que se ha ido construyendo a través del “framing” digital a nivel global (y español) tiene unas características comunes: preponderancia de los aspectos negativos, vinculación con la irregularidad/ilegalidad, homogeneización de las personas de origen migrante, refuerzo de la “otredad” o el tratamiento más como “objeto” que como “sujeto” de las noticias. Destacaremos algunos reveladores resultados del estudio.

Se señala que los tres medios españoles que difundieron noticias más relevantes sobre migraciones en Google durante el periodo analizado fueron El País, La Vanguardia y ABC, algo lógico al ser periódicos de referencia en el panorama comunicativo nacional. Sin embargo, irrumpe en cuarto lugar el medio digital “Caso aislado”, que, aunque desconocido para el gran público, se ha convertido en un actor clave en este ámbito. Con fuertes conexiones con la ultraderecha política y generador de contenidos que de forma reiterada se ha demostrado que eran falsos, medios de este perfil no colaboran a un abordaje informativo objetivo y serio de las migraciones en nuestro país.

Otra de las conclusiones llamativas del informe es que el 62,5% de los titulares de las noticias revisadas tenían connotaciones negativas. Algunas cifras del estudio confirman la capacidad de una información sesgada para construir una “realidad que no se ajusta a la real” que influye de forma decisiva en la opinión pública. Cuando se hacía referencia a la nacionalidad de origen de las personas migrantes en las noticas, más del 45% de las menciones citaban países subsaharianos, a pesar de que el peso de esas nacionalidades en la comunidad extranjera en España es testimonial. Por último, el 100% de los titulares que hacían mención a las vías de entrada de los flujos migratorios en España las identificaban o con la llegadas de embarcaciones irregulares a las costas del Sur, el Levante español y Canarias o con los saltos en las vallas fronterizas de Ceuta y Melilla, cuando ambas vías de acceso son residuales (la inmensa mayoría de las personas migrantes llegan a España a través de los aeropuertos internacionales).

Las noticias falsas o “bulos”[45] van un paso más allá que la información falta de contexto y/o sesgada, ya que quiénes los originan son conscientes de su falsedad y tienen una finalidad de “desinformar”. Las redes sociales y las aplicaciones de mensajería instantánea se han convertido en el espacio natural donde proliferan los bulos, y las migraciones son una de sus temáticas preferidas. Para dotarse de una mayor credibilidad, hacen alusión a supuestos testigos directos o incluso a datos de fuentes oficiales manipulados o descontextualizados. Como temas recurrentes en los “bulos migratorios” encontramos el supuesto abuso de recursos sociales, hechos delictivos o decisiones político-jurídicas que fomentan el “efecto llamada” para las migraciones por vías irregulares. No es casualidad que la desinformación “pura y directa” aproveche las oportunidades que les brinda la descontextualización que anida en el “framing” informativo sobre las migraciones.

Todo lo anterior tiene un claro impacto en la opinión pública. De esta manera, si en enero de 2017 la inmigración estaba entre los 3 primeros problemas de España para el 3,8% de la ciudadanía, esta percepción se disparó al 15,6% en septiembre de 2019, en el contexto de la precampaña electoral de las elecciones generales de noviembre de ese año. La manipulación informativa es palpable cuando, en ese mismo periodo electoral, el Centro de Investigaciones Sociológicas (CIS) constató que la percepción de la ciudadanía de la migración como problema era más del doble si se preguntaba desde un punto de vista sociopolítico general (10,4%) que si se preguntaba desde una perspectiva personal (4,4%) (Magallón-Rosa 2021, 73 y ss.). El mismo CIS especificó en un estudio de 2017 las cuestiones concretas en las que se plasma la visión de las migraciones como problema para las personas españolas (CIS 2017). El 61,1% de las encuestadas pensaba que el número de inmigrantes en España es elevado o excesivo, el 56,2% consideraba que las leyes migratorias españolas son laxas, el 55,5% que la ayuda que reciben del Estado es mayor de lo que aportan, el 51,1% creía que las personas migrantes abusan de la sanidad, el 49,5% consideraba que la presencia de alumnado de origen migrante empeora la calidad de la enseñanza, el 69,6% les acusaban de devaluar los salarios y el 50,3% de quitar empleos a las personas españolas.

Esta percepción social sobre las migraciones, alimentada por la nueva forma de comunicar propia de la era tecnológico-digital, acaba estableciendo una demanda de políticas regresivas en materia de integración y proporciona réditos electorales a los partidos políticos que las defienden[46].

Concluimos este apartado haciendo referencia a la criminalización de las migraciones, “última estación” donde ya se hace prácticamente imposible una política de integración y de ejercicio de ciudadanía por parte de la población de origen migrante desde una perspectiva de derechos, imponiéndose un abordaje policial de esta realidad. Una vez más las nuevas tecnologías ganan protagonismo en este ámbito, con una especial incidencia de las herramientas de IA que se están aplicando con fines de seguridad. Haremos una breve alusión a algunos ejemplos analizados en el informe de Algorace que hemos manejado en páginas anteriores (Valdivia y Sánchez 2022, 26 y ss.).

En varios Estados de los E.E.U.U. se está utilizando el algoritmo COMPAS, que establece el riesgo de reincidencia de una persona en el marco de un proceso penal. Algunos estudios han demostrado un sesgo en este algoritmo que infravalora el riesgo de reincidencia delictiva de las personas blancas y por el contrario las sobrevalora en las racializadas[47]. También en el país norteamericano se ha desarrollado el sistema PredPol, que predice los lugares donde es más probable que se produzcan hechos delictivos, con el objetivo de reforzar la acción policial sobre estas zonas. De nuevo se ha denunciado que en las predicciones de PredPol están sobrerrepresentados barrios con mayoría de personas de origen migrante, hispano o afroamericano. Por su parte, la policía metropolitana de Londres utiliza desde 2012 la herramienta “Gangs Matrix”, donde se monitorizan a presuntos miembros de bandas juveniles (identificados entre otras cuestiones por su actividad en redes sociales). Organizaciones como Amnistía Internacional alertaron de la pertinaz tendencia de este sistema a identificar a jóvenes londinenses negros como pandilleros. Por último, hay que destacar que la criminalización de las migraciones reforzada por las nuevas tecnologías también afecta a las personas de origen migrante cuando son víctimas de delitos. Una evaluación externa realizada al sistema VioGen del Ministerio del Interior español (sistema que predice el riesgo de sufrir violencia de género y trata de mejorar la protección de las potenciales víctimas) detectó una infrarrepresentación de mujeres de origen migrante entre éstas.

Este proceso de criminalización de las migraciones no es inocuo, ya que conlleva una aplicación desproporcionada del Derecho penal sobre las personas de origen migrante. En 2021, el 25% de las personas condenadas por la comisión de un delito en España eran extranjeras[48], casi doblando su peso poblacional. Este dato es esgrimido por los que defienden la mayor peligrosidad criminal de la comunidad extranjera, pero consideramos que las razones de esta mayor prevalencia residen en su correlativa sobrerrepresentación en las cifras de pobreza[49] y en el foco que las fuerzas de seguridad ponen en este colectivo, con la inestimable ayuda de las nuevas tecnologías en los últimos tiempos.

Desde la academia, instituciones de defensa de los derechos fundamentales como el Defensor del Pueblo y organizaciones de la sociedad civil se está advirtiendo de forma reiterada a las administraciones con competencias en materia de seguridad de la existencia de estos sesgos y de consecuencias discriminatorias en las herramientas tecnológicas descritas. Desafortunadamente estos reclamos están teniendo escaso éxito por el momento (Arenas y García 2016).

IV. REFLEXIÓN FINAL

Comenzamos este trabajo planteando dos interrogantes: ¿Cómo está afectando la incorporación de las nuevas tecnologías a las políticas de control de fronteras y de integración de las personas migrantes en España y la UE? ¿Es posible que esa incorporación se lleve a cabo de una forma respetuosa con los derechos fundamentales? Tras los argumentos expuestos, la respuesta a la primera no puede ser otra que negativamente, mientras que a la segunda consideramos que podría recibir una contestación afirmativa, pero siempre que haya voluntad política para llevar a cabo un profundo cambio de enfoque en la aplicación de las nuevas tecnologías en el control fronterizo y en las políticas de integración en España y en la UE.

Hemos constatado que en el despliegue de las “tecnofronteras” se insiste en la vinculación de las migraciones con la delincuencia internacional y el terrorismo global, incidiendo en la criminalización de esta realidad, aplicando herramientas tecnológicas especialmente intrusivas en los derechos fundamentales de las personas que transitan por ellas. Se ha destacado que todo el entramado de bases de datos que desde la UE se ha puesto en marcha para la monitorización de las fronteras exteriores europeas es difícilmente compatible con la indemnidad de la intimidad, de la protección de datos de carácter personal o de la propia libertad de circulación de las personas migrantes. También hemos analizado que la utilización de las nuevas tecnologías en materia de asilo está dificultando un acceso adecuado a los procedimientos de protección internacional para los potenciales solicitantes de asilo y que el “etiquetado-perfilado” de las personas migrantes que se está realizando en frontera condiciona seriamente sus procesos de integración una vez se encuentran en los países de destino. En este ámbito nos vemos obligados a insistir en que nos genera muchas dudas la intervención de empresas privadas en cuestiones que afectan a los derechos fundamentales, tal como acontece en la gestión de instrumentos clave para las “tecnofronteras”.

Desde la perspectiva de la integración tampoco podemos hacer un balance positivo. La utilización de las nuevas tecnologías en esta materia está teniendo unos efectos restrictivos en los derechos de las personas de origen migrante, fomentando los estereotipos que les afectan desde la etapa analógica y reforzando su criminalización. Hemos destacado algunos ejemplos de este perfil en el acceso a los recursos sociales o en la lucha contra la criminalidad que han provocado los citados efectos negativos. Al hilo de este análisis, se ha señalado la falta de adecuación del “Derecho antidiscriminatorio” español y europeo ante estos nuevos desafíos, por una parte, y como los propios algoritmos e inteligencia artificial adolecen de ciertas fallas técnicas estructurales que facilitan la aparición de sesgos discriminatorios que afectan acusadamente a las capas sociales de origen migrante, por otra.

A nuestro juicio, lo que hemos llamado “realidad construida de las migraciones” tiene una importancia capital en todas las disfunciones que afectan a la tecnificación-digitalización de las fronteras y de la gestión migratoria. Partiendo de ella es mucho más probable que la sociedad demande, y los poderes públicos acaben impulsando, unas políticas y regulación en esta materia restrictivas y con un marcado enfoque de seguridad. Igualmente, incluso de forma involuntaria, en este contexto las nuevas tecnologías ahondarán en estereotipos y sesgos negativos. Tal como expusimos, no se entendería esa “realidad construida” sin el abordaje mediático que de las migraciones se está realizando en los últimos años, basado en gran medida en la transformación sufrida por los medios de comunicación tras su digitalización y con el advenimiento de las redes sociales como espacio hegemónico de intercambio de información. En este aspecto es urgente una transformación del tratamiento informativo del fenómeno migratorio, mediante un compromiso ético de los principales medios que garantice a sus audiencias un “framing” adecuado en las noticias sobre esta realidad, un “fact-checking” eficaz y asequible que neutralice el impacto de los bulos en el que colaboren empresas mediáticas e instancias públicas y el fomento desde el sistema educativo de una cultura informativa crítica en la ciudadanía adaptada a la sociedad digital.

A pesar de este panorama poco alentador, creemos que las nuevas tecnologías pueden tener aplicaciones “virtuosas” en la materia objeto de estudio de este texto. Como cualquier otra dimensión social, el desarrollo tecnológico no es “ideológicamente neutro”, y emprenderá una dirección u otra en función de las prioridades políticas, económicas o éticas que lo impulsen. Sin ignorar la prevención que debe suscitar las limitaciones de base que afectan a determinadas aplicaciones de perfiles, algoritmos o inteligencia artificial, que directamente desaconsejan su utilización cuando pongan en riesgo derechos fundamentales, algunas herramientas técnicas pueden tener un rol protagonista en la indemnidad de estos últimos en la gestión de las fronteras y las migraciones. Concluiremos dejando meramente apuntadas algunas propuestas en este sentido.

Una vez drenado de sus elementos intrínsicamente incompatibles con un mínimo respeto al derecho a la intimidad o a la protección de datos de carácter personal, el sistema europeo de “tecnofronteras” podría ser un elemento esencial para la habilitación de las actualmente inexistentes vías de acceso legales y seguras a territorio europeo. Una digitalización del sistema de visados que permita realizar de forma eficiente y accesible las solicitudes y su resolución de forma telemática, desde las legaciones diplomáticas en los países de origen o incluso de forma centralizada desde los países de destino. Si se establecen unos cupos razonables de visados laborales y de reagrupación familiar, estos sistemas desincentivarían las vías irregulares de migración, evitando las múltiples violaciones de derechos humanos que se producen en ellas por actores públicos y privados. Y para todas las legítimas preocupaciones en materia de seguridad en este aspecto, un uso proporcionado de esas mismas herramientas podría dar una respuesta más que suficiente. Entendemos que una digitalización similar de la primera etapa del procedimiento de asilo (solicitud y admisión a trámite), siempre que se garantice el “acceso analógico” en sede diplomática en los países de origen y tránsito cuando el digital sea inviable, tendría unos efectos similares respecto a evitar que personas en una situación especialmente vulnerable se vean abocadas a recurrir a las citadas vías de acceso irregulares.

Ya adelantemos en líneas anteriores que para la detección de personas vulnerables (menores de edad, víctimas de trata…) en frontera las herramientas tecnológicas pueden ser especialmente útiles para garantizarles la protección adecuada que el DIDH les reconoce. En la misma línea, la tecnología se está utilizando ampliamente en la identificación de personas fallecidas y en la búsqueda de aquéllas que han desaparecido en todos los contextos, excepto en el migratorio. En este caso bastaría una adaptación de los protocolos aplicables a las necesidades específicas de las personas que fallecen sin identificar o desaparecen durante su periplo migratorio y sus familias y, por supuesto, que su identificación y localización sean tenidas como una prioridad en las políticas migratorias españolas y europeas.

V. BIBLIOGRAFÍA

AIDA. 2021. Digitalisation of asylum procedures: risks and benefits. Bruselas (Bélgica): European Council on Refugees and Exiles (ECRE).

Añón Roig, M. J. 2022. “Desigualdades algorítmicas: conductas de alto riesgo para los Derechos Humanos”, Derechos y Libertades, nº47: 17-49.

Arce Jiménez, C. 2022. ¿Una nueva ciudadanía para la era digital? Madrid: Dykinson.

   2019. “Frontera Sur: Una realidad política y jurídica construida que genera violaciones de Derechos Humanos”, Revista de Fomento Social, nº294: 145-176.

    “Migraciones, Derechos Humanos y vulnerabilidad”, Revista de Fomento Social, nº289:115-140.

Arenas García, L. y García España, E. 2016. “Identificaciones policiales y discriminación racial en España. Evaluación de un programa para su reducción”, Boletín Criminológico (Instituto andaluz interuniversitario de Criminología), nº163.

Barbero, I. 2021. “Refugiados en contención: lógicas de (in)movilidad en materia de derecho de asilo en la Frontera Sur”, Revista CIDOB d’Afers Internacionals, nº129: 179-202.

Balayn, A. y Gürses, S. 2021. Beyond Debiasing: Tackling AI and its Inequalities. Bruselas (Bélgica): European Digital Rights (EDRI).

Bither, J. y Ziebarth, A. 2021. Automating decisionmaking in migration policy: a navigation guide. Berlín (Alemania): Migration Strategy Group on International Cooperation and Development.

Boix Palop, A. 2020. “Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la administración para la adopción de decisiones”, Revista de Derecho Público: Teoría y método, vol. 1: 223-269.

CIS (Centro de Investigaciones Sociológicas). 2017. 10º Estudio de actitudes hacia la inmigración.

Cózar Murillo, B. y Rodríguez García, L. 2019. “Desmontando el falso mito del problema migratorio”, Fundación Alternativas, nº97.

Cruz Ángeles, J. 2021. “El diseño de perfiles algorítmicos para la gestión y protección de fronteras europeas: ¿una nueva forma de discriminación?”, Revista Aranzadi de Derecho y Nuevas Tecnologías, nº57.

    2020. “Procesamiento informático de datos y protección de derechos fundamentales en las fronteras exteriores de la Unión Europea”, Freedom, Security & Justice: European Legal Studies, nº1: 94-122

De Asís Roig, R. 2020. “Inteligencia artificial y Derechos Humanos”, Materiales de Filosofía del Derecho, nº2020/04

Defensor del Pueblo Español. 2012. La trata de seres humanos en España: víctimas invisibles. Madrid.

Domínguez Martín, R. 2019. “Migración y desarrollo: mitos tóxicos e incoherencia de políticas en la Unión Europea”, en Cabrera García, A.C., Rodríguez Albor, G. y Blanco Rangel, I. (coords.), Migraciones internacionales en el siglo XXI: un análisis desde una perspectiva crítica. México. Benemérita Universidad Autónoma de Puebla, Universidad de San Buenaventura y Universidad Autónoma del Caribe: 17-96.

Laczko, F., Tjaden, J. y Auer, D. 2017. “Global Migration Data Analysis Centre: Data Briefing Series” Issue No. 9. Berlín (Alemania): OIM.

FRA (European Union Agency for Fundamental Rights). 2018. Under watchful eyes: biometrics, EU IT systems and fundamental rights. Luxemburgo.

Institute for Economics & Peace. 2022. Global Peace Index 2022: Measuring Peace in a Complex World. Sydney (Australia).

INE (Instituto Nacional de Estadística). 2021.Encuesta de condiciones de Vida.

López-Sala, A. y Moreno-Amador, G. 2020. “En busca de protección a las puertas de Europa: refugiados, etiquetado y prácticas disuasorias en la frontera sur española”, Estudios Fronterizos, vol. 21: 1-20.

McAuliffe, M. y Triandafyllidou A. (eds.). 2022. Informe sobre las Migraciones en el Mundo 2022. Ginebra (Suiza): OIM.

Magallón-Rosa, R. 2021. “La agenda que queda fuera de los medios desinformación y fact-checking sobre (in)migración”, Migraciones, nº52: 59-87.

Matarín Rodríguez-Peral, E., García García F. y Gómez Franco, T. 2020. “La inmigración a través de los encuadres noticiosos de Google”, Revista Internacional de Estudios Migratorios, vol. 10 (2): 20-50.

Noble, S. U. 2018. Algorithms of Oppression: How Search Engines Reinforce Racism. New York (EEUU): University Press.

OIM (Organización Internacional de las Migraciones). 2009. Migración irregular y flujos migratorios mixtos: Enfoque de la OIM. Ginebra (Suiza).

Ráczová, O. y otros. 2019. Europe’s migration myths. Bratislava (Eslovaquia): Globsec.

Sánchez, M., Sánchez, G. y Arce, C. 2021. Familias de personas migrantes desaparecidas: su búsqueda de respuestas, el impacto de la pérdida y recomendaciones para mejorar las respuestas institucionales a sus necesidades. Organización Internacional de las Migraciones (OIM). Ginebra (Suiza).

Sánchez Tomás, J. M. 2018. “Las «devoluciones en caliente» en el Tribunal Europeo de Derechos Humanos (STEDH, AS. N.D. y N.T. vs España, de 03.10.2017)”. Revista Española de Derecho Europeo, nº65: 1–39.

Serra Cristóbal, R. 2019. “El control de datos de circulación de personas en la UE como mecanismo de salvaguarda de la seguridad nacional”, UNED. Revista de Derecho Político, nº102: 305-332.

Soriano Arnanz, A. 2021. “El creciente uso de sistemas automatizados y sus riesgos. En concreto, la discriminación algorítmica”, Revista General de Derecho Administrativo (Iustel), nº56.

Valdivia García, A. y Sánchez Monedero, J. 2022. Una introducción a la IA y la discriminación algorítmica para movimientos sociales. Madrid. Algorace.

Wihtol de Wenden, C. (2000) ¿Hay que abrir las fronteras? Barcelona, Bellaterra.


[1] Este articulo ha sido elaborado en el marco del Grupo de Investigación SEJ-372 “Democracia, pluralismo y ciudadanía” de la Universidad de Córdoba.

[4] Denominamos “tecnofronteras” al proceso de incorporación transversal de las nuevas tecnologías al control fronterizo, incluyendo desde instrumentos para su monitorización física (sensores, cámaras…) hasta la aplicación de perfiles, algoritmos o la inteligencia artificial a los protocolos o procedimientos administrativos relacionados con dicho control.

[6] Un completo estudio de la digitalización de las fronteras UE en (Serra 2019), (Cruz 2020) y (Cruz 2021). Utilizaremos estas obras como referencia en las siguientes líneas.

[7] Gestionado por la agencia UE EULISA, que también coordina el VIS. Igualmente está desarrollando técnicamente el SES, el API y el ECRIS-TCN.

[10] Registro Común de Identidad, creado por las mismas normas.

[11] Algo que se incrementa exponencialmente con la puesta en marcha del PEB.

[12] Decisión 2004/496 CE.

[13] Sentencia de 30 de mayo de 2006 (asuntos C-317/04 y C-318/04).

[14] El nuevo acuerdo se instrumentó a través de la Decisión 2006/729/CE, con una vigencia temporal, y de forma definitiva con la Decisión 2007/551/CE.

[15] Decisión 2012/381/UE.

[16] COM/2013/0528.

[17] Dictamen 1/15 TJUE.

[19] El art. 3.4 de la Directiva (UE) 2016/680 relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos, establece que debe entenderse por «elaboración de perfiles»: toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona física.

[20] Considerado acorde al Derecho UE por el TJUE (Sentencia de 31 de enero de 2017 asunto C-573/14 Commissaire général aux réfugiés et aux apatrides vs Mostafa Lounani).

[21] Sentencia del Tribunal de Justicia de 3 de septiembre de 2008 asunto C-402/05 Yassin Abdullah Kadi y Al Barakaat International Foundation vs Consejo de la UE y Comisión de las Comunidades Europeas.

[22] Decisión (UE) 2016/2220.

[23] Incluso antes de llegar a las fronteras geográficas del país de destino, gracias a la “externalización del control de fronteras” (Arce 2019, 156 y ss.).

[24] Como veremos en el siguiente apartado, igualmente se etiqueta a la frontera Sur como el principal corredor migratorio en España, cuando las cifras desmienten esa percepción “construida”. (Arce 2019, 164 y ss.).

[25] De los últimos 20 países clasificados en el “Global Peace Index”, 10 son africanos (Institute for Economics & Peace 2022).

[26] En el caso de la frontera Sur española, el papel de Marruecos desde esa perspectiva es esencial.

[27] Intento rechazado por amplios sectores de la doctrina (Sánchez 2018), y de forma casi unánime por la sociedad civil, a pesar de las polémicas resoluciones sobre las mismas del TEDH (STEDH de 23 de febrero de 2020, asunto N.D. y N.T. contra España -demandas nº8675/15 y 8697/15-) y del TC (STC 172/2020, de 19 de noviembre) que han sido esgrimidas por el Gobierno de España como legitimación de su posición.

[28] A pesar de que desde que fueron inauguradas en 2015 le ha sido imposible acceder a ellas a las personas de origen subsahariano, debido a la labor de filtro realizada por Marruecos (Barbero 2021).

[30] Volveremos sobre este particular en el siguiente capítulo.

[31] Situación denunciada por el Defensor del Pueblo Español de forma reiterada tanto en documentos específicos como en sus informes generales anuales (Defensor del Pueblo Español 2012).

[32] Ya lo advierte la propia Comisión Europea desde la introducción de su Libro Blanco sobre la inteligencia artificial - Un enfoque europeo orientado a la excelencia y la confianza

https://op.europa.eu/es/publication-detail/-/publication/ac957f13-53c6-11ea-aece-01aa75ed71a1 (18/05/2023)

[34] Algo que se puede predicar respecto al ejercicio de todos los derechos en el mundo digital, no solo de los sociales (Arce 2022, 139), como hemos reiterado a lo largo de estas líneas.

[35] En Estados Unidos, Suiza y Alemania se están probando a estos efectos dos “software” denominados Annie Moore (Observatory of Public Sector Innovation) y Geomatch (Immigration Policy Lab): https://oecd-opsi.org/innovations/annie/ (18/05/2023)

https://immigrationlab.org/geomatch/ (18/05/2023)

[37] Dadas las implicaciones crecientes que tienen los algoritmos en los procesos de decisión de los poderes públicos, algunos autores proponen que se apliquen en su elaboración y utilización los mismos requisitos que en los procedimientos de aprobación de las normas jurídicas (Boix 2020).

[38] Más allá de los art. 21 y ss. CDFUE o el art. 19 TFUE, donde se establecen los principios básicos de la no discriminación en la UE.

[39] El art. 5 Directiva 2000/43/CE define las acciones positivas: …como medidas específicas para prevenir o compensar las desventajas que afecten a personas de un origen racial o étnico concreto.

[40] Art. 2.1 b) Directiva 2000/43/CE: existirá discriminación indirecta cuando una disposición, criterio o práctica aparentemente neutros sitúe a personas de un origen racial o étnico concreto en desventaja particular con respecto a otras personas, salvo que dicha disposición, criterio o práctica pueda justificarse objetivamente con una finalidad legítima y salvo que los medios para la consecución de esta finalidad sean adecuados y necesarios.

[42] Prevalencia de la inmediatez sobre el rigor, precariedad laboral, aparición del “periodismo ciudadano” … (Arce 2022, 106 y ss.).

[43] Y con ello el papel hegemónico de los buscadores, con los “riesgos discriminatorios” para los colectivos sociales subalternos que se ha demostrado que conlleva (Noble 2018).

[44] En 2023, más del 59% de la población mundial era usuaria de redes sociales (4.760 millones de personas), proporción que se dispara hasta el 85% en el caso de España (Informe de “We are social-Hootsuite”: https://wearesocial.com/es/blog/2023/01/digital-2023/) (18/05/2023) Ya en 2016 el 46% de ciudadanos UE señalaba que se informa prioritariamente por redes sociales, y entre ellos el 60% reconocía que compartía información sin contrastarla (Cózar y Rodríguez 2019, 72).

[45] Un completo análisis de la desinformación sobre migraciones en (Magallón-Rosa 2021).

[46] En el citado informe del CIS de 2017, el 52,9% de las personas españolas encuestadas reclamaban la preferencia nacional en el empleo, el 67% defendía la expulsión inmediata de las personas extranjeras en situación regular que cometan cualquier tipo de delito y el 43,3% veía justificado restringir la construcción de mezquitas.

[47] El uso de COMPAS fue judicializado en el Estado de Wisconsin (caso Loomis, asunto 881N.W.2d 749 -Wis.2016-), cuya Corte Suprema lo acabó avalando (De Asís 2020).

[48] Datos del Instituto Nacional de Estadística (INE). https://www.ine.es/jaxiT3/Tabla.htm?t=25698 (18/05/2023).

[49] El riesgo de pobreza (tasa AROPE) es casi el doble en las personas extranjeras UE que en las españolas (40,3%-23,6%), disparándose en la población extranjera no UE (65,2%) (INE, 2021).

 

Copyright

Estudios de Deusto es una revista de acceso abierto, lo que significa que es de libre acceso en su integridad. Se permite su lectura, la búsqueda, descarga, distribución y reutilización legal en cualquier tipo de soporte sólo para fines no comerciales, sin la previa autorización del editor o el autor, siempre que la obra original sea debidamente citada y cualquier cambio en el original esté claramente indicado.

Estudios de Deusto is an Open Access journal which means that it is free for full access, reading, search, download, distribution, and lawful reuse in any medium only for non-commercial purposes, without prior permission from the Publisher or the author; provided the original work is properly cited and any changes to the original are clearly indicated.