Anthropic frena publicación de su IA Claude Mythos por ser muy "peligrosa"
Anthropic anunció que no liberará públicamente su nuevo modelo de inteligencia artificial, Claude Mythos, tras detectar que expone vulnerabilidades críticas

Sy modelo de inteligencia artificial Claude Mythos no será publicado para uso general.
Lo que debes saber
- Claude Mythos no será publicado al público porque detecta vulnerabilidades críticas en software, sistemas operativos y navegadores.
- De salir al público los hackers podrían aprovechar sus capacidades para descifrar contraseñas o romper sistemas de cifrado.
- Anthropic creó el proyecto Glasswing, una alianza con más de 40 organizaciones, para usar Mythos como herramienta defensiva.
Anthropic sorprendió al sector tecnológico al anunciar que su modelo de inteligencia artificial Claude Mythos no será publicado para uso general. La decisión se tomó luego de que el sistema demostrara una capacidad inédita para detectar vulnerabilidades en software de uso común, incluyendo sistemas operativos y navegadores que llevaban décadas sin ser cuestionados.
Sociedad
Café Científico analiza desafíos del emprendimiento estudiantil en Guayaquil
Gabriel Enrique Cornejo Espinoza
Mike Krieger, representante de Anthropic Labs, explicó en la conferencia HumanX en San Francisco que el modelo será compartido únicamente con especialistas en ciberseguridad y comunidades de código abierto.
El objetivo es convertirlo en una herramienta defensiva y no en un arma al alcance de hackers, quienes podrían aprovechar sus capacidades para descifrar contraseñas o romper sistemas de cifrado.
Te invitamos a leer: Artemis 2: cuándo, cómo y dónde ver el regreso a la Tierra de la misión lunar de la NASA
Anthropic es una startup de inteligencia artificial con sede en San Francisco, fundada en 2021 por exmiembros de OpenAI. Su misión se centra en desarrollar sistemas de IA seguros y alineados con valores humanos, bajo la marca Claude, que ya cuenta con varias generaciones de modelos.
Vulnerabilidades críticas y riesgos globales
Claude Mythos ha expuesto miles de fallos en aplicaciones y programas ampliamente utilizados, algunos de ellos con más de 27 años de antigüedad. Entre los hallazgos más llamativos se encuentra un error en un software de video que había sido probado más de cinco millones de veces sin que sus creadores lo detectaran.
La empresa advirtió que las capacidades de la IA han alcanzado un nivel que supera a la mayoría de los expertos humanos en la identificación de vulnerabilidades. Esto plantea riesgos graves para la economía, la seguridad pública y la seguridad nacional.
">Introducing Project Glasswing: an urgent initiative to help secure the world’s most critical software.
— Anthropic (@AnthropicAI) April 7, 2026
It’s powered by our newest frontier model, Claude Mythos Preview, which can find software vulnerabilities better than all but the most skilled humans.https://t.co/NQ7IfEtYk7
Las revelaciones han encendido alarmas en Washington, donde el secretario del Tesoro de Estados Unidos convocó a líderes de los principales bancos para discutir las amenazas cibernéticas que podrían derivarse de modelos como Mythos.
Proyecto Glasswing: alianza para la defensa digital
Como respuesta a los riesgos, Anthropic lanzó el proyecto Glasswing, una iniciativa que reúne a unas 40 organizaciones, entre ellas CrowdStrike, Palo Alto Networks, Cisco, Broadcom, Amazon, Apple y Microsoft, además de la Linux Foundation. El objetivo es que un grupo limitado de socios tenga acceso a Mythos para identificar y corregir vulnerabilidades antes de que puedan ser explotadas.
Economía y negocios
Nueva proyección del Banco Mundial: ¿Cuánto crecerá la economía de Ecuador en este 2026?
Lisbeth Zumba
Anthropic ha destinado recursos informáticos valorados en 100 millones de dólares para respaldar esta colaboración, que busca cerrar la brecha entre el descubrimiento de fallos y su explotación por adversarios.