Català | Castellano

Síguenos:

Boletín del IDHC

Suscríbete ahora

Asóciate al IDHC

Tu granito de arena

En el IDHC trabajamos para hacer avanzar la historia de los derechos humanos. Una historia en la que todas y todos nosotros tenemos un papel que desempeñar.

¿Quieres formar parte?

Agenda y calendario de actos

Becas para realizar el 40ª Curso de Derechos Humanos 2022

Cuándo:
Del 24 de enero al 24 de febrero del 2022


[Sesión formativa] Introducción al enfoque interseccional

Cuándo:
3 de febrero del 2022

Dónde:
Plataforma zoom


Defender los derechos humanos en Perú y América Latina: Acceso a mecanismos de protección internacional

Cuándo:
Del 7 de febrero al 25 de marzo del 2022

Dónde:
aulaIDHC.org


Ver más

Jueves, 13 de enero de 2022

La implantación de la Inteligencia Artificial en frontera y la vulneración de derechos

Una cincuentena de entidades lanzamos el manifiesto #FronterasDigitales, alertando del peligro para los derechos humanos de las


Recientemente ha aparecido en prensa la noticia sobre la voluntad del gobierno español de aplicar la llamada «frontera inteligente» en los pasos fronterizos de Ceuta y Melilla con el fin de ejercer un mayor control de seguridad mediante el uso de inteligencia artificial a través de la recogida de datos biométricos (reconocimiento facial, huellas dactilares…). Frente a esta noticia, las abajo firmantes manifestamos nuestra preocupación y creemos necesario alertar de los peligros asociados a este tipo de decisiones políticas que conlleva el uso de la inteligencia artificial.

Los duros controles fronterizos son espacios de potencial vulneración de derechos:

  • Vulneración de derechos fundamentales: el impacto en los derechos básicos que puede tener en un futuro la recopilación de datos biométricos como ya ocurre en aplicación del Convenio de Dublín. Los traslados de personas solicitantes de asilo de un estado miembro a otro en contra de su voluntad, en aumento en los últimos años, han sido, en parte, propiciadas por la recopilación de datos
  • biométricos, como sus huellas dactilares.
  • Violación de la privacidad: los datos biométricos son datos intrínsecos a las personas. La recopilación de datos biométricos en personas sin pasaporte europeo no cumple con el principio de proporcionalidad. Estas personas se encuentran a menudo en situación de vulnerabilidad y no se tienen en cuenta las consecuencias no deseadas de disponer de unos datos biométricos de personas que no cuentan con mecanismos de protección, garantía, y reparación adecuados.
  • Discriminación y criminalización. La aplicación de la “frontera inteligente” como un elemento de lucha contra el terrorismo supone un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español. Las políticas antiterroristas a menudo han resultado una herramienta de propagación de la islamofobia, que han tenido como consecuencia un rechazo generalizado hacia la población migrante y racializada. Es de sobra conocido que los algoritmos de reconocimiento facial suelen arrojar falsos positivos y falsos negativos en rostros no caucásicos, lo cual, en este contexto concreto, podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas. La utilización de IA para el control fronterizo profundizaría la estigmatización y criminalización de grupos de personas que ya se encuentran en una gran situación de vulnerabilidad y/o exclusión.
  • Transparencia y auditabilidad. El procedimiento adolece de una falta de transparencia tanto en la forma, como en el fondo. Tampoco se menciona la auditabilidad y publicidad de los algoritmos. Por las informaciones conocidas, no se habla de que los algoritmos que se empleen sean auditables y/o explicables, tampoco de mecanismos de trazabilidad que permitan supervisión humana ni de políticas de protección de datos.
  • Mecanismos de control y revisión. Resulta imprescindible incorporar mecanismos de control y revisión de los procedimientos algorítmicos que permitan enmendar errores de manera ágil por grupos de personas independientes en los que han de poder participar entidades en defensa de los derechos humanos y antirracistas. El uso de estos sistemas de reconocimiento facial supone una doble securitización del proceso, que estigmatiza pero también diluye la responsabilidad humana y política ante los daños, efectos indeseados o consecuencias negativas de su uso.

Por todo ello, la aplicación de mecanismos de inteligencia artificial en el control fronterizo supone un peligro de vulneración de derechos humanos, discriminación, criminalización y violación de la privacidad.

Por ello exigimos:

  • La aplicación de la regulación de la IA y protección de datos elaborada por la Comisión Europea también a contextos y situaciones que se consideran de tipo “securitario”, no puede haber vacío legal en este ámbito.
  • La derogación del Reglamento UE 2017/2226 del Parlamento Europeo y del Consejo 30/11 /17 que permite el reconocimiento facial.
  • La necesidad de información y consentimiento informado ante el uso de estos sistemas, incluso si se llegan a aplicar y desplegar.
  • La incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera.
  • La aplicación de tecnologías explicables y auditables, auditoría y control externo de las tecnologías aplicadas, los datos e imágenes almacenadas.
  • Para que la tarea de fiscalización y control por parte de la sociedad civil se pueda llevar a cabo de manera rigurosa, los procesos de diseño y pruebas de los sistemas, incluyendo las bases de datos utilizadas para calibrar los algoritmos, deben ponerse a disposición de auditorías independientes y personas afectadas.

Adhiérte al manifiesto

Te puede interesar

Sala de prensa, Incidencia | Actualidad | Miércoles, 15 de septiembre de 2021

Los riesgos de la inteligencia artificial para los derechos humanos

La ONU publica un informe donde se analiza el impacto de la IA en los derechos humanos y solicita a los Estados moratorias sobre su uso en espacios públicos


Sala de prensa, Formación | Actualidad | Lunes, 9 de marzo de 2020

El relator de Naciones Unidas sobre los derechos de las personas migrantes inaugura el curso anual de derechos humanos

A lo largo de tres semanas, el curso se centrará en el estudio de la protección de los derechos humanos con una perspectiva interseccional

ACTO PRESENCIAL

Taller "Cómo actuar ante el discurso del odio en Internet"

El también llamado ciberodio es un fenómeno creciente en toda Europa contra el que urge una actuación global. En España, la crudeza de las medidas de recorte del gasto público y la presencia de persistentes...

Cuándo:
10 de marzo del 2015, 10:00

Dónde:
Lafede.cat | Organitzacions per a la justícia global ● C. Tàpies, 1-3, 08001 Barcelona

Av. Meridiana 32, ent. 2a (esc. B) | 08018 Barcelona
T.: +34 93 119 03 72 | +34 655 856 163
institut@idhc.org

© Institut de Drets Humans de Catalunya.
Aviso legal | Mapa web | Contacto

Página web x Space Bits