Actualidad

De como impedir el apocalipsis de la IA

De cómo impedir el apocalipsis de la IA

Los recientes progresos en el campo de la inteligencia artificial han sido absolutamente impresionantes. La IA está transformando prácticamente todos los sectores de la sociedad, desde el transporte hasta la medicina y la defensa. ¿Qué pasará cuando se vuelva aún más avanzada de lo que ya es? La visión apocalíptica de que las máquinas impulsadas por IA serán más listas que la humanidad, se apoderarán del mundo y matarán a todos, muchas veces aparece en la ciencia ficción y es bastante fácil de descartar, considerando que los seres humanos siguen ejerciendo un control firme. Pero muchos expertos en IA se toman la perspectiva apocalíptica en serio, y tienen razón de hacerlo. El resto de la sociedad debería imitarlos. Consideremos la distinción entre “IA estrecha” e “inteligencia artificial general” (IAG). La IA estrecha puede funcionar solo en un dominio o en pocos dominios a la vez; puede superar a los seres humanos en determinadas tareas, pero sigue estando bajo control humano. La IAG, por el contrario, puede razonar en un amplio rango de dominios y podría replicar muchas capacidades intelectuales humanas, reteniendo a la vez todas las ventajas de las computadoras, como la recuperación de memoria perfecta. Con un “hardware” informático sofisticado, la IAG podría superar la cognición humana. Es difícil concebir un techo para lo avanzada que podría llegar a ser. La IAG es el foco de una investigación y desarrollo de importancia. Recientemente realicé una encuesta de proyectos de I&D de IAG, e identifiqué 45 en 30 países en seis continentes. Muchas iniciativas activas parten de corporaciones como Baidu, Facebook, Google, Microsoft y Tencent, y de universidades de élite como Carnegie Mellon, Harvard y Stanford, así como de la Academia China de Ciencias. No sería sensato suponer que ninguno de estos proyectos tendrá éxito. Con la IAG, las probabilidades de una catástrofe en el próximo siglo podrían ser de una en 100, o incluso de una en diez, a juzgar por el ritmo de la I&D y la magnitud de la preocupación de los expertos. La interrogante entonces es qué hacer al respecto. Por empezar, necesitamos garantizar que la I&D se realice de manera responsable, segura y ética. Esto exigirá un diálogo más profundo entre quienes trabajan en ese campo y los legisladores, los científicos sociales y los ciudadanos preocupados. Quienes trabajan en el campo conocen la tecnología y serán ellos quienes la diseñen de acuerdo a estándares acordados; pero no deben decidir por sí solos cuáles serán esos estándares. Muchas personas que están desarrollando aplicaciones de IA no están acostumbradas a pensar en las implicancias sociales de su trabajo. Para que eso cambie, deben estar expuestos a perspectivas externas. Establecer estándares y reglas básicas es, en definitiva, una tarea para la comunidad internacional en su totalidad, aunque los centros de I&D deberían tomar la delantera. De cara al futuro, algunos esfuerzos por abordar los riesgos planteados por la IAG pueden sumarse a las iniciativas políticas que se implementaron para la IA estrecha. Pero lo que más importa es que emprendamos una acción constructiva ahora para minimizar el riesgo de una catástrofe en el futuro.