CAT | ESP
Actualidad

La implantación de la Inteligencia Artificial en frontera y la vulneración de derechos

Una cincuentena de entidades lanzamos el manifiesto #FronterasDigitales, alertando del peligro para los derechos humanos de las

Jueves, 13 de enero de 2022

Recientemente ha aparecido en prensa la noticia sobre la voluntad del gobierno español de aplicar la llamada «frontera inteligente» en los pasos fronterizos de Ceuta y Melilla con el fin de ejercer un mayor control de seguridad mediante el uso de inteligencia artificial a través de la recogida de datos biométricos (reconocimiento facial, huellas dactilares…). Frente a esta noticia, las abajo firmantes manifestamos nuestra preocupación y creemos necesario alertar de los peligros asociados a este tipo de decisiones políticas que conlleva el uso de la inteligencia artificial.

Los duros controles fronterizos son espacios de potencial vulneración de derechos:

  • Vulneración de derechos fundamentales: el impacto en los derechos básicos que puede tener en un futuro la recopilación de datos biométricos como ya ocurre en aplicación del Convenio de Dublín. Los traslados de personas solicitantes de asilo de un estado miembro a otro en contra de su voluntad, en aumento en los últimos años, han sido, en parte, propiciadas por la recopilación de datos
  • biométricos, como sus huellas dactilares.
  • Violación de la privacidad: los datos biométricos son datos intrínsecos a las personas. La recopilación de datos biométricos en personas sin pasaporte europeo no cumple con el principio de proporcionalidad. Estas personas se encuentran a menudo en situación de vulnerabilidad y no se tienen en cuenta las consecuencias no deseadas de disponer de unos datos biométricos de personas que no cuentan con mecanismos de protección, garantía, y reparación adecuados.
  • Discriminación y criminalización. La aplicación de la “frontera inteligente” como un elemento de lucha contra el terrorismo supone un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español. Las políticas antiterroristas a menudo han resultado una herramienta de propagación de la islamofobia, que han tenido como consecuencia un rechazo generalizado hacia la población migrante y racializada. Es de sobra conocido que los algoritmos de reconocimiento facial suelen arrojar falsos positivos y falsos negativos en rostros no caucásicos, lo cual, en este contexto concreto, podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas. La utilización de IA para el control fronterizo profundizaría la estigmatización y criminalización de grupos de personas que ya se encuentran en una gran situación de vulnerabilidad y/o exclusión.
  • Transparencia y auditabilidad. El procedimiento adolece de una falta de transparencia tanto en la forma, como en el fondo. Tampoco se menciona la auditabilidad y publicidad de los algoritmos. Por las informaciones conocidas, no se habla de que los algoritmos que se empleen sean auditables y/o explicables, tampoco de mecanismos de trazabilidad que permitan supervisión humana ni de políticas de protección de datos.
  • Mecanismos de control y revisión. Resulta imprescindible incorporar mecanismos de control y revisión de los procedimientos algorítmicos que permitan enmendar errores de manera ágil por grupos de personas independientes en los que han de poder participar entidades en defensa de los derechos humanos y antirracistas. El uso de estos sistemas de reconocimiento facial supone una doble securitización del proceso, que estigmatiza pero también diluye la responsabilidad humana y política ante los daños, efectos indeseados o consecuencias negativas de su uso.

Por todo ello, la aplicación de mecanismos de inteligencia artificial en el control fronterizo supone un peligro de vulneración de derechos humanos, discriminación, criminalización y violación de la privacidad.

Por ello exigimos:

  • La aplicación de la regulación de la IA y protección de datos elaborada por la Comisión Europea también a contextos y situaciones que se consideran de tipo “securitario”, no puede haber vacío legal en este ámbito.
  • La derogación del Reglamento UE 2017/2226 del Parlamento Europeo y del Consejo 30/11 /17 que permite el reconocimiento facial.
  • La necesidad de información y consentimiento informado ante el uso de estos sistemas, incluso si se llegan a aplicar y desplegar.
  • La incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera.
  • La aplicación de tecnologías explicables y auditables, auditoría y control externo de las tecnologías aplicadas, los datos e imágenes almacenadas.
  • Para que la tarea de fiscalización y control por parte de la sociedad civil se pueda llevar a cabo de manera rigurosa, los procesos de diseño y pruebas de los sistemas, incluyendo las bases de datos utilizadas para calibrar los algoritmos, deben ponerse a disposición de auditorías independientes y personas afectadas.

Adhiérte al manifiesto

Te puede interesar

C. Carrer Avinyó 44, 2n | 08002 Barcelona
T.: +34 93 119 03 72
institut@idhc.org

© Institut de Drets Humans de Catalunya.
Aviso legal | Cookies | ContactoProgramación web Space Bits