IA
Miles de chat se filtraron por una falla en OpenAICANVA

ChatGPT: miles de conversaciones privadas aparecen en Google

Una falla de OpenAI produjo que varias conversaciones se filtraran en el buscador de Google

Una grave falla de privacidad ha sacudido a OpenAI, la empresa detrás de ChatGPT, luego de que miles de conversaciones compartidas por usuarios aparecieran indexadas en los resultados de búsqueda de Google y Bing. Aunque la función “Compartir conversación” fue diseñada para facilitar el acceso a intercambios útiles, terminó exponiendo información personal, laboral y médica de miles de personas en internet.

¿Cómo se filtraron las conversaciones?

La función “Compartir conversación” permite a los usuarios generar un enlace público de sus chats con ChatGPT. Lo que muchos desconocían es que estos enlaces podían ser rastreados por motores de búsqueda, haciendo que cualquier persona pudiera acceder a ellos con una simple búsqueda del dominio chatgpt.com/share

El consultor SEO Bruno Dangelo explicó a Business Insider que más de 4.500 conversaciones fueron indexadas, muchas de ellas con contenido sensible: currículums, diagnósticos médicos, estrategias de negocio, y hasta confesiones personales. Algunos usuarios incluso aprovecharon esta vulnerabilidad para posicionar contenido promocional en Google, usando la autoridad del dominio de ChatGPT para fines de marketing.

OpenAI reconoció que se trataba de un “experimento breve” para facilitar el descubrimiento de conversaciones útiles, pero admitió que generó “demasiadas oportunidades para compartir información no deseada sin querer”. En declaraciones a The Verge, un vocero de OpenAI confirmó que la función fue desactivada el 1 de agosto y que están trabajando con Google para retirar los enlaces indexados.

Computadora
Más de 4.500 conversaciones fueron indexadas, muchas de ellas con contenido sensibleCANVA

Riesgos legales y falta de protección

El CEO de OpenAI, Sam Altman, en entrevista con Bloomberg Technology, advirtió que las conversaciones con ChatGPT podrían ser utilizadas como evidencia en procesos judiciales si así lo solicita un juez. Aunque muchos usuarios creen que sus interacciones con la IA son privadas, la realidad legal es distinta: no existe un marco jurídico que proteja estas conversaciones como lo haría el secreto profesional entre abogado y cliente o médico y paciente.

La política de privacidad de OpenAI, actualizada en junio de 2025, establece que los datos de usuario, incluidos los chats, pueden ser almacenados y utilizados para cumplir con obligaciones legales. Esto significa que incluso si un usuario borra su historial, la empresa podría verse obligada a conservarlo y entregarlo ante una orden judicial.

certificación en IA

Samsung ofrece 400 becas para certificarse en Python e IA: así puedes postular

Leer más

¿Qué se ha hecho para frenar la exposición de datos?

Tras el escándalo, OpenAI ha implementado varias acciones para mitigar el impacto. En su blog oficial, la empresa anunció que los enlaces compartidos ya no serán visibles en buscadores y que se han desactivado las funciones de indexación automática. Además, se están desarrollando nuevas advertencias dentro de la interfaz para alertar a los usuarios sobre los riesgos de compartir contenido sensible.

OpenAI también ha reforzado sus protocolos internos: los registros de conversación estarán disponibles solo para equipos legales bajo auditoría estricta, como parte de una orden judicial derivada de una demanda del New York Times. 

La empresas de tecnología recuerdan a los usuarios que se debe evitar compartir información personal o sensible a la IA debido a que la información se almacena y el sistema general sigue teniendo fallas en cuanto a la seguridad de los datos compartidos.

¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!