Cuando Anthropic anunció Claude Mythos Preview el 7 de abril de 2026, la reacción fue más allá de la comunidad de ciberseguridad.
Los ministros de Finanzas lo discutieron en el FMI. El gobernador del Banco de Inglaterra dijo que había que tomarlo muy en serio. El gobierno del Reino Unido ha escrito una carta abierta a todos los líderes empresariales del país.
Jefes de Ciberseguridad Global, Edición 1.
Creó la explotación del trabajo sin guía humana. El Instituto de Seguridad de IA del Reino Unido probó que podía completar un ataque simulado a una red corporativa de 32 pasos, desde la recuperación hasta la toma de control total, que tomaría a los profesionales humanos alrededor de 20 horas.
Una advertencia importante es que estos resultados provienen de un entorno de laboratorio. La tarjeta del sistema Mythos de Anthropic señala que las simulaciones no tenían defensas activas, un monitoreo de seguridad mínimo y una falta de herramientas defensivas. Las pruebas de explotación de Firefox se ejecutan sin el entorno de pruebas del proceso del navegador. Mythos es impresionante, pero no se enfrenta a sistemas sólidos y activamente protegidos.
Dicho esto, AISI estima que la capacidad cibernética del Modelo Frontier ahora se duplica cada cuatro meses. El genio ha salido de la botella. Otros fabricantes de modelos proporcionarán una funcionalidad similar pero sin restringir el acceso como Anthropic.
1. La seguridad es economía
AISI presupuestó 100 millones de tokens por intento en su simulación de ataque a la red. Después de diez carreras, Mithos completó el ataque completo de 32 pasos tres veces.
Ninguno de los modelos probados mostró rendimientos decrecientes a medida que aumentaba el presupuesto simbólico; El rendimiento mantiene la escala hacia arriba. En términos generales, cuantos más cálculos tenga un atacante sobre un objetivo, más encontrará.
Para fortalecer un sistema, ¿deberíamos gastar más tokens en descubrir exploits que los que gastan los atacantes en encontrarlos?
Los informes “Mythos-ready” de CSA y SANS destacan un punto relacionado: crear una función de operaciones de vulnerabilidad persistente, impulsando el descubrimiento continuo impulsado por IA en todo su conjunto de software.
Depender de pruebas de penetración anuales no coincide con la cadencia del mundo real. El gasto de tokens puede ser nuevas pruebas de penetración.
2. Vector de ataque de señal de parche
Se espera que el Proyecto Glasswing genere una avalancha de revelaciones de vulnerabilidades, ya que casi 40 importantes proveedores de software han obtenido acceso temprano a Mythos para revisar sus bases de código.
Esa divulgación coordinada y responsable es el enfoque correcto, pero crea un problema secundario: cada parche es una señal para los adversarios sobre dónde buscar.
La IA acelera el desafío de los parches, comparando el código antiguo y el nuevo para aplicar ingeniería inversa a lo que se solucionó y a lo que es explotable. Cada parche se convierte en un modelo de explotación.
El proyecto Zero Day Clock ha rastreado la caída del tiempo de explotación de 2,3 años en 2018 a aproximadamente 20 horas en 2026. Las organizaciones que tardan en aplicar parches no solo están detrás de la curva, sino que también quedan expuestas de manera proactiva a través de los lanzamientos.
Las vulnerabilidades expuestas externamente son ahora una de las métricas más importantes que un equipo de seguridad debe rastrear.
3. La transparencia del código abierto es ahora un arma de doble filo
Mithos analiza el código fuente para encontrar vulnerabilidades. La investigación de Anthropic distingue entre software de código abierto, donde el modelo lee el código directamente, y código cerrado, donde el trabajo se realiza bajo acuerdos de asociación con proveedores.
Esto tiene implicaciones para el código abierto en general, incluidas políticas como el compromiso de desarrollo abierto del gobierno del Reino Unido. La publicación de código fuente impone buenos estándares e invita al escrutinio, pero si un modelo de IA puede entender una base de código en minutos y crear exploits funcionales, los repositorios abiertos se convierten en un coto de caza.
Los informes de vulnerabilidades del kernel de Linux han aumentado de dos a diez por semana, todos verificados como genuinos. Las organizaciones que prosperan en los espacios abiertos y que dependen de componentes de código abierto deben repensar cómo equilibran la transparencia con la exposición, especialmente para los sistemas cercanos a infraestructuras críticas.
4. La defensa en profundidad sigue funcionando y la diversidad arquitectónica es importante
La carta abierta del gobierno del Reino Unido lo deja claro: las medidas que las organizaciones deben tomar contra las amenazas impulsadas por la IA son las mismas medidas de higiene cibernética recomendadas para las amenazas tradicionales.
No todas las vulnerabilidades conllevan el mismo riesgo. Un CVE crítico en un sistema interno sin exposición a Internet es una propuesta diferente del mismo CVE en una plataforma de pago pública.
La segmentación, el control de identidad, el filtrado de salida y la MFA resistente al phishing aumentan los costos para los atacantes, incluso con la ayuda de la IA.
La diversidad arquitectónica también es importante. Un exploit contra una pila de tecnología no necesariamente funcionará contra otra, por lo que las arquitecturas diversas y en capas son difíciles de atacar de un extremo a otro, incluso a la “velocidad de la IA”.
La guía del NCSC sobre rupturas de protocolo es un ejemplo: cerrar una conexión y pasar la carga útil a un sistema descendente a través de un protocolo simplificado obliga a un ataque a atravesar múltiples tecnologías, lo que hace que el compromiso basado en protocolo sea significativamente más difícil.
5. Los modelos de IA pueden convertirse en instrumentos de influencia geopolítica
El Proyecto Antrópico ha optado por limitar el acceso a Mythos a través de Glasswing, ofreciéndolo a socios y gobiernos seleccionados en lugar de publicarlo públicamente. El Tesoro de Estados Unidos informó directamente a sus principales bancos. Este es un patrón interesante.
Los modelos de IA con capacidades de seguridad ofensivas son activos estratégicos eficaces. Vale la pena considerar un paralelo con los controles históricos de exportación sobre el cifrado. En la década de 1990, el gobierno de Estados Unidos clasificó la criptografía fuerte como un arma y restringió su exportación.
Estos controles finalmente se utilizaron como herramienta de influencia. No es difícil imaginar que el acceso a los modelos de seguridad de IA más capaces se restrinja según líneas geopolíticas o se utilice como palanca en futuras negociaciones comerciales.
Para las empresas que operan a nivel internacional, esto crea un nuevo riesgo de dependencia. Si su capacidad para defender sus sistemas depende del acceso a modelos controlados por un gobierno extranjero o una sola empresa, eso en sí mismo es una vulnerabilidad estratégica.
¿Dónde nos deja esto?
La velocidad se ha acelerado pero la reacción no debería entrar en pánico. Debería estar enfocado. El informe “listo para los mitos” de CSA y SANS, revisado por los CISO más experimentados de la industria, lo enmarca bien: esta es la primera de muchas oleadas.
Las organizaciones que capten esta situación serán aquellas que agudicen sus prioridades de vulnerabilidad, reduzcan su superficie de ataque y escale sus decisiones de seguridad a través de la automatización y la arquitectura, en lugar de limitarse a la plantilla.
Hemos presentado el mejor software de gestión de parches..
Este artículo fue producido en parte Perspectiva profesional de TechRadarNuestro canal para mostrar las mejores y más brillantes mentes de la industria tecnológica actual.
Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: