chat gpt
El CEO de ChatGPT recomienda no confiar tanto en la información que da la IACANVA

“No confíen tanto en la IA": CEO de ChatGPT lanza una advertencia

OpenAI insta a los usuarios a no confiar ciegamente en la IA, recordando que aún puede generar errores y contenidos falsos

La inteligencia artificial (IA) se ha convertido en una herramienta cotidiana para millones de personas en todo el mundo. Desde redactar correos hasta resolver tareas académicas, asistentes como ChatGPT han ganado terreno como aliados digitales. Sin embargo, Sam Altman, CEO de OpenAI ha lanzado una advertencia clara: no deberíamos confiar ciegamente en la IA.

Durante una entrevista en el pódcast oficial de OpenAI, Altman expresó su preocupación por el nivel de confianza que los usuarios depositan en ChatGPT. “La gente tiene un alto grado de confianza en ChatGPT, lo cual es interesante, porque la IA alucina. Debería ser la tecnología en la que no se debe confiar tanto”, afirmó.

¿Qué son las alucinaciones en la IA?

El término “alucinaciones” en el contexto de la IA se refiere a cuando el modelo genera información incorrecta o inventada, pero lo hace con tal seguridad y coherencia que puede parecer verídica. Esto representa un riesgo, especialmente cuando los usuarios utilizan la herramienta como fuente de información para decisiones importantes o tareas profesionales.

Altman explicó que estas limitaciones tecnológicas aún no han sido superadas, y que los usuarios deben tener presente que ChatGPT no es infalible. Por ello, recomendó que siempre se solicite información respaldada por fuentes oficiales y que se evite establecer vínculos personales con la IA, como si se tratara de un asistente humano.

¿Por qué ChatGPT podría estar haciendo que pienses menos?

¿ChatGPT nos vuelve perezosos? Cómo evitar la dependencia de la IA

Leer más

La IA solo es una herramienta de ayuda

El CEO de OpenAI insistió en que ChatGPT debe ser visto como una herramienta tecnológica, no como una fuente absoluta de verdad. Aunque puede ofrecer resultados útiles en muchos campos, aún está lejos de reemplazar el juicio humano o la verificación crítica.

Esta advertencia cobra relevancia en un contexto donde cada vez más personas utilizan la IA para tareas sensibles: desde diagnósticos médicos preliminares hasta asesoría legal o decisiones financieras. El riesgo no está solo en los errores, sino en la confianza excesiva que puede llevar a tomar decisiones basadas en información errónea.

Recomendaciones para su uso

Altman sugiere que los usuarios adopten una postura crítica y responsable. Algunas recomendaciones clave incluyen:

  • Verificar la información con fuentes confiables.
  • No usar la IA como sustituto de la investigación o el criterio profesional.
  • Evitar compartir datos personales o sensibles en conversaciones con el modelo.
  • Recordar que la IA puede generar contenido convincente, pero no siempre correcto.

La advertencia de Altman no busca desalentar el uso de ChatGPT, sino fomentar un uso más consciente y ético. En palabras del propio CEO, la IA es una herramienta poderosa, pero no debe reemplazar el pensamiento crítico ni la responsabilidad individual.

Accede a contenido exclusivo. Únete a nuestra comunidad informada en EXPRESO