Català | Castellano

Síguenos:

Boletín del IDHC

Suscríbete ahora

Asóciate al IDHC

Tu granito de arena

En el IDHC trabajamos para hacer avanzar la historia de los derechos humanos. Una historia en la que todas y todos nosotros tenemos un papel que desempeñar.

¿Quieres formar parte?

Agenda y calendario de actos

El Tribunal Europeo de Derechos Humanos: funcionamiento, procedimiento de acceso y jurisprudencia (3ª edición)

Cuándo:
Del 18 de octubre al 30 de noviembre del 2021

Dónde:
aulaIDHC.org


[Ciclo de webinars] Despolarizando las redes, reconectando las calles

Cuándo:
Del 27 de octubre al 4 de noviembre del 2021, 17:00

Dónde:
Plataforma virtual


Ver más

Sala de prensa, Incidencia | Miércoles, 15 de septiembre de 2021

Los riesgos de la inteligencia artificial para los derechos humanos

La ONU publica un informe donde se analiza el impacto de la IA en los derechos humanos y solicita a los Estados moratorias sobre su uso en espacios públicos


Nota de prensa publicada por la Oficina de la  Alta Comisionada para los Derechos Humanos. Consulta el original aquí

La Oficina de lla Alta Comisonad para los Derechos Humanos de la ONU publica un informe en el que se analiza cómo la Inteligencia Artificial -incluidas la elaboración automática de perfiles, la toma de decisiones y otras tecnologías de aprendizaje para las máquinas- afecta al derecho a la intimidad y a otros derechos, incluidos los relativos a la salud, la educación, la libertad de movimiento, la libertad de reunión y asociación pacífica, y la libertad de expresión.

El informe examina cómo a menudo los Estados y las empresas se han precipitado a incorporar los programas informáticos de IA sin ejercer la diligencia debida. Ha habido muchos casos de personas que han sido injustamente tratadas a causa de la IA, ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial.

Al respecto, la Alta Comisionada Miche Bachelete ha declarado que “La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”.

“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, añadió la Alta Comisionada. “Pero  dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”. 

Riesgo de discriminación inherente a las decisiones basadas en la IA

En el informe se describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos, que contienen información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos. Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares, ya que en el futuro esa información podría aprovecharse de formas difíciles de prever en la actualidad. 

“Dado el rápido y continuo crecimiento de la IA, llenar el inmenso vacío de asunción de responsabilidades sobre cómo se recogen, almacenan, comparten y utilizan los datos es uno de los cometidos más urgentes que afrontamos en materia de derechos humanos”, dijo Bachelet.

Las deducciones, predicciones y actividades de seguimiento que llevan a cabo las herramientas de IA, incluida la búsqueda de pautas de conducta humana, plantean también graves interrogantes.  Las bases de datos sesgadas   en los que a menudo se basan los sistemas de IA pueden conducir a la adopción de decisiones discriminatorias, un riesgo que es más acentuado cuando se trata de grupos que ya se encuentran marginados.

“El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real. Por eso es necesario evaluar y monitorear sistemáticamente las repercusiones de los sistemas de IA, para poder  identificar y atenuar los riesgos en materia de derechos humanos”, añadió Bachelet.

“Las tecnologías biométricas, que se están convirtiendo en un comodín para los Estados, las organizaciones internacionales y las empresas de tecnología, constituyen un ámbito que necesita urgentemente más directrices de derechos humanos”, señala el informe.

Esas tecnologías, que comprenden el reconocimiento facial, se usan cada vez más para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos.  El informe reitera el llamamiento a una moratoria de su uso en espacios públicos, al menos hasta que las autoridades demuestren que no existen problemas significativos con la precisión o los efectos discriminatorios, y que esos sistemas de IA cumplen con las normas aplicables a la protección de datos y a la privacidad.

Transparencia

También es preciso que las empresas y los Estados incrementen la transparencia en lo que se refiere al desarrollo y la aplicación de los sistemas de IA.

“La complejidad del contexto estadístico, los algoritmos y los modelos en los que se basa la elaboración y el funcionamiento de los sistemas de IA, así como el carácter secreto que le confieren los gobiernos y los agentes privados, contribuyen a que la población en general no alcance a comprender la repercusión de los sistemas de IA sobre la sociedad y los derechos humanos”, apunta el informe. 

“No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos. La capacidad de la IA para servir a la población es innegable, pero también lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable.  Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a la utilización de la IA por el bien de todos”, terminó diciendo Bachelet.

Te puede interesar

Sala de prensa, Incidencia | Actualidad | Jueves, 16 de julio de 2020

El Examen Periódico Universal a España finaliza con 256 recomendaciones que el gobierno se compromete a poner en marcha para mejorar la situación de los derechos humanos

El IDHC ha intervenido en la sesión para reclamar el efectivo cumplimiento de las recomendaciones aceptadas


Sala de prensa, Incidencia | Actualidad | Miércoles, 11 de diciembre de 2019

Sesión preparatoria del Examen Periódico Universal (EPU) a España

El EPU evalúa el nivel de cumplimiento de los derechos humanos en los países miembros de la ONU

ACTO PRESENCIAL

Jornada: Periodistas en Conflictos Armados

11:00-14:00h Israel y Palestina, Irak y Líbano Eugeni García-Gascón, corresponsal de diversos medios de comunicación españoles en Israel y Palestina Joan Roura, periodista, enviado especial de TV3 a Irak...

Cuándo:
4 de diciembre del 2006, 11:00

Dónde:
Sala Auditori de la Facultat de Periodisme | Universitat Pompeu Fabra La Rambla 30-32 | 08002 Barcelona

Av. Meridiana 32, ent. 2a (esc. B) | 08018 Barcelona
T.: +34 93 119 03 72 | +34 655 856 163
institut@idhc.org

© Institut de Drets Humans de Catalunya.
Aviso legal | Mapa web | Contacto

Página web x Space Bits