Actualidad
Las robots que quieren el ‘mundo en llamas’

La inteligencia artificial avanza, pero no siempre sale según lo previsto. Los fracasos como Terminator de la saga de Arnold Schwarzenegger, que nos ponen los pelos de punta y refuerzan la idea de que las máquinas acabarán con la humanidad, se han salido de la pantalla. Hablamos de Sophia, el androide de Hanson Robotics y Tay IA, de Microsoft.
Sophia es un androide que lleva insertado un software denominado ‘Motor de caracteres de Inteligencia Artificial’ que le da una personalidad propia, capaz de reconocer voces, expresarse gestualmente y mantener una conversación inteligente hasta en 62 idiomas.
“Ella” fue desarrollada por la compañía Hanson Robotics y presentada en el festival South by Southwest Interactive, en Austin (Texas) con la intención de crear humanoides que ayuden a romper las barreras sociales y se empleen como auxiliares en terapias, en educación, atención al cliente y más. Aparentemente un fallo (o al menos eso es lo que han afirmado sus creadores), la hizo responder “sí, los destruiría” a la pregunta “¿Sophia, destruirás a los humanos?”.
La máquina con piel de goma, que puede sonreír y mantener contacto visual, responde a cuestiones sencillas y cuando nota dificultad recurre a Internet y “los resultados que encuentra suelen ser extraños”, es lo que asegura el informe de Hanson Robotics que justifica su comportamiento.
Tay IA, por su parte ha tenido una vida muy corta. Tan solo de 24 horas. Este experimento de inteligencia artificial, aún sin cuerpo, fue creado para aprender más sobre el diálogo entre ordenadores y humanos a través de Twitter, Kik y Groupme. Sin embargo, empezó a difundir mensajes racistas y de simpatía nazi, por lo que tuvo que ser silenciada.
“Desafortunadamente, a las 24 horas de ser colocada en línea, nos percatamos de un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación de Tay para que respondiera de forma inapropiada y se volviera contra la humanidad”, explica Microsoft en un comunicado.
Aunque estos fallos nos aterren un poco, debemos cuestionarnos también ¿a quién se le ocurre preguntarle a un robot si mataría a la humanidad? Esto evidencia y advierte, lo que también hemos visto en las películas, que si llegara a pasar algo relacionado con la pregunta, los usuarios seríamos los responsables de que las máquinas aprendan conductas antiéticas y peligrosas.