Ciencia y Tecnologia

El sesgo de género se infiltra en los algoritmos

El machismo en la tecnología es uno de los puntos ciegos creados, según IBM, por la falta de diversidad en los equipos de desarrollo  y tiene una propuesta para cambiarlo.

Inteligencia artificial
El machismo también toca la tecnología.Internet

En un experimento realizado en 2015 se mostró cómo un anuncio de un puesto de trabajo muy bien retribuido era mucho más visible para hombres que para mujeres en Internet, algo que pone en cuestión la segmentación de los anuncios en la Red.

Que la mayoría de las mujeres no pudieran ver ese anuncio por el simple hecho de ser mujeres ya estaba condicionando un posible ascenso social.

Las universidades de Princeton (Estados Unidos) y de Bath (Reino Unido), por su parte, han demostrado que, cuando los sistemas aprenden un idioma a partir de textos ya existentes se ven contagiados de los mismos prejuicios incluidos en el lenguaje. 

Los autores parten del denominado Test de Asociación Implícita (TAI), un método utilizado para medir los prejuicios en los seres humanos. En los resultados, encontraron que, los nombres femeninos se asociaban a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales.

Los sesgos se pueden introducir en un sistema de IA de diferentes maneras: mediante el uso de datos limitados o incorrectos en los algoritmos de aprendizaje automático que entrenan al sistema o, a los parámetros algorítmicos que deciden qué datos son los más importantes. 

Un ejemplo son los algoritmos bancarios que otorgan a los hombres límites de crédito mucho más altos y sistemas de reclutamiento laboral que ignoran a las mujeres y a las minorías.

Aunque el proceso está altamente automatizado, el sesgo penetra, intencionalmente o no, al elegir conjuntos de datos de entrenamiento y reglas algorítmicas que determinan cómo se entrena la IA. Los datos defectuosos y los modelos sesgados pueden llevar fácilmente a la inteligencia artificial a conclusiones erróneas que afectan desde los puntajes de crédito de las personas, las opciones de empleo, los ingresos a la escuela y hasta su nivel de riesgo en casos de tribunales penales.

Sin embargo, IBM cree que el mayor problema no son los datos o los algoritmos: son los puntos ciegos creados por la falta de diversidad, de experiencia, educación y pensamiento, en los equipos que desarrollan la inteligencia artificial. 

Por eso propone que más mujeres se involucren en el área y para eso ofrece cursos gratuitos de machine learning / aprendizaje automático a los que puedes acceder aquí.

La ética en la IA es un tema que preocupa. Lo esencial para esto es crear sistemas justos y garantizar que estén alineados con los valores de los humanos. Y para esto, la diversidad e inclusión en los equipos de desarrollo son  muy necesarios.