
El futuro no es Star Trek: lo que se dijo sobre IA, datos y poder en CES 2026
EXPRESO estuvo en uno de los Samsung Tech Forum en el AI Platform Center sobre el futuro de la confianza y la IA
La inteligencia artificial ya no es una promesa futura ni un debate teórico. Es una tecnología cotidiana, transversal y profundamente influyente.
Esa fue una de las conclusiones centrales del foro sobre seguridad e inteligencia artificial, organizado por Samsung Electronics como parte de su Samsung Tech Forum en CES 2026, realizado en el Wynn de Las Vegas.
Bajo el eje '¿Confiamos en la tecnología? Repensando la seguridad y la privacidad en la era de la IA', el encuentro reunió a expertos globales que coincidieron en que el mayor desafío de la inteligencia artificial ya no es técnico, sino humano, ético y estructural: cómo se construye la confianza en sistemas que cada vez son más invisibles, autónomos y presentes en la vida diaria.

El panel contó con la participación de Shin-Chul Baik, Head of Security Governance Lab del AI Platform Center (APC) de Samsung; Zack Kass, experto en IA y exdirector de estrategia de salida al mercado de OpenAI; Amy Webb, futurista cuantitativa; Allie K. Miller, líder de pensamiento en IA; y como moderador, Richard Edelman, CEO de Edelman.
A lo largo de la conversación se delinearon varias lecciones clave que marcan el presente —y el futuro inmediato— de la inteligencia artificial.
La IA ya está aquí (y siempre lo estuvo)
Uno de los consensos más claros fue que existe una confusión generalizada sobre qué es realmente la inteligencia artificial. Los panelistas coincidieron en que la IA no es una entidad única ni un evento puntual que “aparece”, sino un conjunto de tecnologías que llevan décadas integradas en sistemas cotidianos: correos electrónicos, GPS, seguridad aérea, plataformas digitales y servicios financieros.
Esa falta de comprensión, advirtieron, alimenta expectativas irreales, miedos exagerados y debates mal enfocados, especialmente cuando se habla de inteligencia artificial general o de supuestos “puntos de no retorno”.
En ese contexto, Samsung subrayó que la confianza no se construye con promesas, sino con comportamientos predecibles, comprensibles y controlables, un principio que atraviesa su enfoque de confianza por diseño.
El futuro no es Star Trek: ya está ocurriendo
En este punto del debate, Amy Webb aportó una de las reflexiones más contundentes del foro. Webb es futurista, autora y fundadora del Future Today Institute, uno de los centros de análisis de tendencias más influyentes del mundo. Su trabajo se enfoca en anticipar escenarios a largo plazo sobre inteligencia artificial, tecnología emergente, riesgos y toma de decisiones. Cada año publica el Tech Trends Report, utilizado por gobiernos, empresas y organismos internacionales.
Ella advirtió que solemos imaginar el futuro como algo lejano y casi de ciencia ficción, cuando en realidad ya está en marcha, y que ese error de percepción retrasa decisiones urgentes.

“El año 2030 todavía suena para muchos como algo sacado de Star Trek, pero no lo es... Faltan 4 años. No estamos hablando de un futuro lejano: está mucho más cerca de lo que creemos”.
La futurista subrayó que el verdadero riesgo no es que la tecnología avance demasiado rápido, sino que la sociedad, la regulación y la comprensión pública avancen demasiado lento, dejando decisiones críticas en manos de pocos y sin un debate informado.
El problema no es cuándo llega la IA avanzada, sino cómo se desarrolla
Frente a la pregunta recurrente sobre cuándo llegará una IA general o superinteligente, la respuesta de Webb fue directa: el “cuándo” no es lo importante. "No existe un botón, un benchmark único ni un día exacto en el que todo cambia."
Lo verdaderamente relevante es qué decisiones se toman mientras la tecnología evoluciona: cómo se diseña, cómo se implementa, quién la controla y bajo qué principios se despliega. El impacto no ocurre de golpe, sino de forma acumulativa".
Confianza y gestión del riesgo
Desde el punto de vista empresarial, de Zack Kass, de OpenAI, la adopción de la IA depende de tres factores clave:
- Calidad del resultado: si la salida no es confiable, no hay valor.
- Confiabilidad: los errores repetidos erosionan rápidamente la adopción.
- Gestión del riesgo: que una tecnología exista no significa que pueda desplegarse sin pasar por filtros legales, éticos y de seguridad.
Transparencia y elección: la base del uso responsable
Otro eje central fue la necesidad de transparencia real en el uso de datos. Los usuarios —empresas y ciudadanos— deben saber qué datos se usan, cómo se procesan y con qué fines. Pero, además, deben tener capacidad de elección.
Allie K. Miller remarcó que las personas quieren entender si un modelo corre localmente o en la nube, qué parte del sistema utiliza IA y cuál no, y cómo se protege su información. Esa visibilidad, coincidieron los panelistas, es la base de la confianza.
La democratización de la IA cambia quién tiene voz
Uno de los momentos más destacados del panel fue el énfasis en cómo estas herramientas están rompiendo la barrera entre expertos técnicos y no técnicos. Hoy, personas sin formación en programación pueden crear soluciones que antes requerían semanas o meses de trabajo especializado.

Esto implica un cambio profundo en las organizaciones: desaparecen las divisiones rígidas entre ingeniería y el resto, y más personas —con conocimiento de contexto y experiencia en su campo— acceden a la mesa de decisiones.
Datos, poder y el dilema de los mercados emergentes
El debate también abordó el caso de países como India, donde millones de usuarios acceden gratuitamente a herramientas de IA. Aunque esto amplía el acceso tecnológico, también abre una pregunta incómoda: ¿hasta qué punto los usuarios están subvencionando con sus datos el desarrollo de modelos que no les pertenecen?
Si no se paga con dinero, se paga con información. Y esos datos, advirtieron, pueden ser más valiosos que cualquier suscripción. De ahí la necesidad de discutir soberanía tecnológica, modelos propios y beneficios reales para las economías locales.
La IA y el rol humano
La IA, coincidieron, no elimina el rol humano: lo expone, lo obliga a reflexionar y a corregir. El hecho de poder contrastar, cuestionar y equilibrar la información es, paradójicamente, una de las señales más claras de que los humanos siguen en control.
Seguridad como condición del futuro
El mensaje final fue claro: el futuro de la IA dependerá de la experiencia del usuario, de 'guardrails' sólidos, de privacidad y seguridad, de una escalabilidad responsable y de un liderazgo fuerte en seguridad, especialmente en contextos de alto riesgo.
La IA seguirá avanzando. La verdadera pregunta no es si podemos detenerla, sino si sabremos usarla con criterio, transparencia y responsabilidad.
¿Quieres acceder a todo el contenido de calidad sin límites? ¡SUSCRÍBETE AQUÍ!