Sociedad_Ciencia  tecnología_Geoffrey Hinton
Geoffrey Hinton, en una imagen de 2017, cuando recibió el Premio Fronteras del Conocimiento de la Fundación BBVA.Cortesía: Fundación BBVA

El ‘padrino’ de la IA deja Google y avisa de los peligros de esta tecnología

Geoffrey Hinton teme que internet se llene de textos falsos, fotos y vídeos

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la inteligencia artificial (IA), ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías, según dijo en una entrevista publicada el lunes 1 de mayo por The New York Times.

WhatsApp Image 2023-04-29 at 17.29.55

La clave laboral ante la IA es adaptarse

Leer más

(LOS INVITAMOS TAMBIÉN A LEER: Imágenes generadas con IA: ¿dejaremos de distinguir lo que es real?)

A menudo llamado el “padrino” de la IA, Hinton aseguró que a sus 75 años lamenta ahora haber dedicado su carrera a este ámbito. “Me consuelo con la excusa normal: si no hubiese sido yo, otro lo habría hecho”, señaló al diario neoyorquino.

No me gustaban las primeras teorías de la inteligencia artificial (IA) porque se basaban mucho en la lógica y eso es algo que los humanos tardamos mucho en desarrollar.

Geoffrey Hinton,
​científico británico

Su voz de alarma se suma a las advertencias que en los últimos meses han hecho otros expertos, sobre todo a raíz del lanzamiento de los nuevos bots de texto como el popular ChatGPT y las grandes apuestas que los gigantes tecnológicos están haciendo en este ámbito.

a18d5c15405cd77a672912999aa64fe67c522802m

¿Cumple ChatGPT con la protección de datos? Hay motivos para la incertidumbre

Leer más

“Es difícil ver cómo se puede evitar que los malos actores lo usen para cosas malas”, aseguró Hinton en la entrevista, en la que avisa sobre la excesiva velocidad a la que se están logrando avances.

(LOS INVITAMOS TAMBIÉN A LEER: Las afirmaciones de ChatGPT pueden influir en los juicios morales humanos)

“Mire cómo era hace cinco años y cómo es ahora”, apuntó. “Tome la diferencia y propáguela hacia adelante. Eso asusta”, señaló Hinton, que el año pasado recibió el Premio Princesa de Asturias de Investigación Científica y Técnica junto a otros tres pioneros de la inteligencia artificial por su trabajo.

A corto plazo, este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y videos, y que los ciudadanos no puedan ser capaces de distinguir lo que es real, pero también cree que estas tecnologías pueden reemplazar a muchos trabajadores y, más adelante, suponer incluso una amenaza para la humanidad.

  • Un perfil. Profesor de la Universidad de Toronto (Canadá) y premio Fundación BBVA Fronteras del Conocimiento en 2017 desarrolló en 2004 los conceptos en los que trabaja desde hace medio siglo. En 1986, inventó los algoritmos de retropropagación, fundamentales para el entrenamiento de redes neuronales.
La OIT cree que la in (10428813)

La OIT cree que la inteligencia artificial creará más empleo del que destruye

Leer más

“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, explicó. “Pero la mayoría de la gente pensaba que estaba muy lejos. Pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, añadió.

(LOS INVITAMOS TAMBIÉN A LEER: ¿Qué puede hacer ChatGPT-4? Conoce todas las habilidades de la nueva IA de OpenAI)

En su opinión, se deberían frenar los trabajos en este ámbito hasta que se entienda bien si será posible controlar la IA, una idea en línea con otros llamamientos públicos de personalidades del sector tecnológico que han pedido suspender temporalmente los experimentos.

A través de Twitter, Hinton quiso puntualizar después que no deja Google para poder criticar a la empresa, sino para poder hablar de los peligros de la inteligencia artificial sin tener que preocuparse del impacto que esas opiniones causarían en la compañía en la que trabajaba, una empresa que según él “ha actuado de forma muy responsable”.