Mundo

bachelet
La alta comisionada para los derechos humanos, Michelle Bachelet, indicó que esto puede vulnerar el derecho a la intimidad y otros relativos a la salud, la educación. cortesía

La creciente presencia de la inteligencia artificial inquieta a la ONU

La alta comisionada para los derechos humanos, Michelle Bachelet, pidió hoy una moratoria parcial en su venta y uso

La inteligencia artificial (IA), silenciosamente presente ya en sistemas de seguridad, asignación de empleos o búsquedas en internet, comienza a preocupar en el seno de la ONU, donde la alta comisionada para los derechos humanos, Michelle Bachelet, pidió hoy una moratoria parcial en su venta y uso.

Inteligencia artificial

Usan inteligencia artificial para predecir la progresión de la enfermedad de Parkinson

Leer más

Esta moratoria se debería aplicar en principio para aquellas tecnologías de IA potencialmente discriminatorias o que amenacen nuestros derechos, señaló Bachelet ante el Consejo de Derechos Humanos de Naciones Unidas, que se reúne estos días en Ginebra.

Bachelet hizo este llamamiento antes de la presentación ante el mismo Consejo de un informe documentando las amenazas que plantea la IA, tecnología que se define como aquélla en la que la máquina puede aprender por si misma.

No podemos seguir reaccionando tardíamente a los efectos de la inteligencia artificial, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos

Michelle Bachelet, ONU

El informe ha estudiado el comportamiento de la IA en sistemas de elaboración automática de perfiles, toma de decisiones y otros usos, que, según concluye, pueden vulnerar el derecho a la intimidad y otros relativos a la salud, la educación, la libertad de movimiento o a la libre expresión.

BIG DATA Y RECONOCIMIENTO FACIAL

El estudio documenta varios aspectos en los que la inteligencia artificial ya está interfiriendo en los derechos humanos, por ejemplo mediante el gran uso de datos personales, algo que pone en riesgo la privacidad de millones de personas.

Las grandes multinacionales tecnológicas, dueñas de muchas de esas gigantescas bases de datos, están utilizándolas para determinar mediante inteligencia artificial qué contenido filtrar, cuál amplificar o dejar en un segundo plano, algo que cuanto menos plantea retos frente a la libertad de expresión e información.

pandemia

La OMS quiere adelantarse a las pandemias del futuro con análisis de datos e inteligencia artificial

Leer más

Un segundo aspecto es el uso de estos datos de forma discriminatoria, y en este sentido el informe subraya que ya se ha comprobado que algunos sistemas de IA han mostrado sesgos machistas o racistas a la hora de asignar empleos o decidir quién puede o no acceder a determinados servicios sociales.

Además, se han observado tecnologías que usan la IA para influir en el comportamiento de la gente o intentar predecir cuál será en el futuro, señala el informe, que también da la voz de alarma sobre la falta de transparencia en la que se está desarrollando el sector.

No menos preocupante es la utilización de la inteligencia artificial en materia de seguridad, por ejemplo en el control de fronteras o en la identificación de sospechosos, en ocasiones incluso de manera remota, a través de sistemas biométricos como el reconocimiento facial y hasta emocional.