Columnas

‘I need your clothes, your boots, and your motorcycle’

En 1997 Kasparov, Gran Maestro de ajedrez, perdió una partida ante un computador. Y desde entonces se pensó que eso podía pasar en ajedrez, pero jamás en Go -aquel noble juego inventado en China hace más de dos milenios-; después de todo, Go tiene muchísimas más posibilidades de juego y colocación de piezas: 10 a la 170ma potencia, un número tan grande que desafía cualquier analogía en la física (se calcula en el universo observable hay 10 elevado a la 80ma potencia número de átomos; –10 a la 9na es mil millones). Así que -al menos en Go-no era posible que una máquina pudiera ganarle al mejor jugador.

Cuando DeepMind, una compañía de inteligencia artificial (IA) de Google, “desafió” en el 2016 a Lee Sedol, mejor jugador del mundo, para jugar 5 partidas de Go contra el computador ‘AlfaGo’, Lee dijo que él ganaría fácilmente 5 juegos a 0; o quizá no por blanqueada, pero sí por paliza: 4-1.

Estaba en lo correcto sobre el resultado (4-1) pero se equivocó de ganador. Ganó la máquina. Y cuando esto sucedió muchos pensaron en Bill Gates, Stephen Hawking, Elon Musk, y SkyNet. Los tres primeros han manifestado profunda preocupación por los posibles peligros de la IA, mientras que SkyNet -francamente- hizo la cagada.

Una consecuencia de la IA es el ‘aprendizaje de máquina’, donde el computador aprende a través de experiencia controlada. Esto es, un humano ayuda a la máquina a “educarse” dándole miles de ejemplos y corrigiendo manualmente errores. Pero, si bien el aprendizaje de máquina funciona en el campo de la IA, hay problemas: por una parte, consume muchísimo tiempo, mientras que, por otra, no es una medida veraz de lo inteligente que puede ser la máquina ya que se apoya en la experiencia humana para “instruirse”. Es aquí donde entra el ‘aprendizaje profundo’, que le propinó la paliza a Sedol. Este aprendizaje está menos sometido a supervisión, pues implica que el computador piense por sí mismo y aprenda sin intervención humana directa.

En 1942, Asimov, con el mundo lejos todavía de los ‘smartphones’ y el internet, acuñó las 3 leyes de la robótica, que hemos desempolvado -por diversión o cautela- desde que la IA forma parte de nuestra vida. Esas son: 1. Un robot no puede dañar a un ser humano, ni -por inacción- permitir que un ser humano sufra daño. 2. Un robot debe cumplir las órdenes de los seres humanos, salvo que dichas órdenes estén en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia en la medida en que ello no entre en conflicto con la Primera o la Segunda Ley.

El hecho de que un computador solo pueda aprender ‘mejor’ y ‘más’, basado en la información proporcionada por un humano (como en el Go), tranquiliza a los que no ven mayor peligro; pero yo no lo veo tan claro.

Hay quienes sostienen que el peligro de la IA solo se concretaría si se programa específicamente para hacer daño, o si la IA aprende -ya sin mayor intervención humana (aprendizaje profundo)- y aplica un método destructivo para obtener algo que entiende como un beneficio. La primera hipótesis equivale a algo similar a lo que ya vivimos (terrorismo, espionaje, etc.). Es la segunda conjetura la que me inquieta un poco... después de todo, la solución más evidente para acabar con el calentamiento global viene a ser no otra que la extinción de la raza humana.