Aikido

El pesimismo en materia de ciberseguridad que rodea a Mythos no se corresponde con lo que vemos sobre el terreno

Escrito por
Sooraj Shah

La cobertura reciente en torno al último modelo de Anthropic, Mythos, se ha centrado casi exclusivamente en lo que podría suponer para los atacantes. Un borrador filtrado de una entrada de blog, al que ha tenido acceso Fortune, describe el modelo como capaz de «aprovechar las vulnerabilidades de formas que superan con creces los esfuerzos de los defensores». Tanto es así que Anthropic afirma que quiere actuar con cautela y comprender adecuadamente los posibles «riesgos a corto plazo en el ámbito de la ciberseguridad» del modelo antes de seguir adelante. 

Lo que vino después era previsible: titulares sobre«la inminente pesadilla cibernética de la IA», proveedores de ciberseguridad que advertían sobre la democratización de los ciberataques y la percepción generalizada de que la balanza se había inclinado.

Da mal rollo, ¿verdad?

Bueno, a primera vista sí lo es. Pero la balanza aún no se ha inclinado. Esa visión apocalíptica se basa en la suposición de que la capacidad de los modelos se traduce directamente en una ventaja para los atacantes. Sin embargo, nuestros datos sugieren lo contrario. 

El supuesto en el que se basa la narrativa del Mito

De hecho, sabemos que los modelos de IA acelerarán los procesos de los ataques. Sin embargo, la eficacia de esto depende en gran medida del contexto profundo del sistema, algo de lo que carecen en gran medida los atacantes. 

Las capacidades de ciberseguridad que se atribuyen a modelos como Mythos coinciden en gran medida con lo que los sistemas de IA ya están haciendo en entornos controlados de pruebas de seguridad: detección de vulnerabilidades, análisis del código y simulaciones de ataques en varias fases. Nuestra propia experiencia con 1.000 pruebas de penetración con IA en entornos reales nos permite comprender cómo varía el rendimiento en diferentes condiciones.

El patrón es constante. Las pruebas de caja blanca, en las que se dispone del código fuente de la aplicación objetivo, detectaron siete veces más problemas críticos y de alta gravedad, y se ejecutaron con aproximadamente el doble de eficiencia que las pruebas de caja gris, en las que el acceso al código fuente es limitado. Esto sugiere que la eficacia de la IA depende en gran medida del contexto, y no solo de su capacidad técnica. 

En la práctica, ese contexto se obtiene combinando el análisis estático y el dinámico. Analizar el código o el comportamiento de forma aislada solo ofrece una visión parcial. Cuando se dispone de ambos sistemas, estos pueden relacionar el código escrito con su comportamiento durante la ejecución, lo que cambia la profundidad de los resultados. Esto también influye en los costes: se necesitan menos intentos (y, por lo tanto, menos recursos) para detectar problemas significativos.

Las reflexiones actuales en torno a Mythos parten de la base de que los atacantes sacarán mayor provecho de los modelos de vanguardia más recientes. Sin embargo, en la práctica, esto no tiene en cuenta que son los atacantes quienes disponen de un contexto limitado. Ellos deducen los detalles del sistema desde el exterior, mientras que los defensores ya conocen el funcionamiento real de dichos sistemas.

El contexto es la limitación, más que la capacidad

De hecho, se concede mucha importancia a la forma en que los propios desarrolladores del modelo describen sus capacidades; lo mismo ocurrió cuando Anthropic afirmó que Claude Opus 4.6 había detectado más de 500 vulnerabilidades de alta gravedad en bibliotecas de código abierto. Estas afirmaciones muestran lo que los modelos son capaces de hacer en condiciones ideales, pero apenas se habla de cómo varía el rendimiento cuando se opera sin una visibilidad completa del sistema. 

La variable principal en este caso es el contexto. El acceso al código fuente y a la lógica interna de la aplicación determina qué es lo que los agentes de pruebas pueden evaluar de forma significativa. La capacidad por sí sola no se traduce en resultados. Sin un contexto de código estático y dinámico suficiente, ni siquiera los modelos más avanzados logran superar a los modelos ligeros de código abierto, debido a una comprensión incompleta del sistema que están analizando.

Pensemos en el reciente ataque a Axios, uno de los paquetes más utilizados del registro NPM. El atacante no modificó el código fuente. Lo que hizo fue acceder a una cuenta de administrador, añadir una nueva dependencia y publicar una actualización. El ataque funcionó porque no existía ningún CVE conocido con el que compararlo, ningún patrón de código malicioso que pudiera detectarse ni ninguna firma que un escáner pudiera identificar. El ataque tuvo éxito porque ninguna de las herramientas de la cadena disponía del contexto necesario para detectar qué era lo que realmente había cambiado. 

Una organización que tuviera una visión profunda de su árbol de dependencias —es decir, que supiera no solo qué paquetes utiliza, sino también qué hacen esos paquetes, cómo se comportan y cómo es una actualización legítima— habría tenido una base para cuestionar ese cambio. Sin ello, por mucha rapidez o capacidad que se tenga, no sirve de nada. Por eso, el actual planteamiento de que «la IA favorece a los atacantes» no da en el clavo. Aquí es donde el enfoque de las pruebas impulsadas por IA empieza a diferenciarse. Dado el contexto completo del código y el comportamiento en tiempo de ejecución, estas herramientas de agente privilegiado identifican problemas que las pruebas superficiales simplemente pasan por alto.

Y, sin embargo, nada de esto significa que la ventaja contextual del defensor en cuanto a la visibilidad del código y el tiempo de ejecución sea permanente. Por supuesto, la IA también reducirá el coste de obtener contexto; pero la narrativa actual da a entender que se ha producido un cambio de equilibrio de la noche a la mañana. Desarrollar una comprensión genuina del sistema es un trabajo lento y complejo, y aunque los modelos de IA serán cada vez más capaces de deducir ciertos aspectos del contexto, nunca podrán igualar la claridad que proporciona el acceso al código fuente real, a la API y a las credenciales o tokens de las aplicaciones, ni la capacidad de analizar rápidamente la lógica empresarial interna a través de los componentes de las aplicaciones, los microservicios y las integraciones que una organización tiene internamente.

En retrospectiva, todo esto puede parecer obvio, sobre todo teniendo en cuenta la tendencia a difundir mensajes catastrofistas en materia de seguridad. Pero a veces es necesario analizar con mayor detenimiento lo que se nos presenta para valorar realmente su impacto real. La idea generalizada ha sido que los nuevos modelos de IA van a inclinar drásticamente la balanza, lo cual es cierto hasta cierto punto; la IA proporcionará velocidad, alcance y capacidad a los atacantes, y habrá un impacto perjudicial para quienes defienden las aplicaciones, los sistemas y la infraestructura.

Pero la diferencia radica en que la eficacia depende en gran medida del contexto, y ese contexto no se distribuye de manera uniforme. Por suerte para nosotros, la balanza se inclina a favor de los defensores. Así que, aunque los atacantes puedan ser los primeros en beneficiarse de los nuevos modelos de IA de vanguardia, como Mythos y Capybara, los defensores ya cuentan con la ventaja de un conocimiento profundo y estructural sobre el funcionamiento real de su código. La IA está haciendo que el contexto de la seguridad de las aplicaciones sea más valioso que nunca. La pregunta es si los defensores aprovecharán la ventaja de la que ya disponen. 

Compartir:

https://www.aikido.dev/blog/anthropic-mythos-cybersecurity-risks-overblown

Suscríbase para recibir noticias sobre amenazas.

Empieza hoy, gratis.

Empieza gratis
Sin tarjeta
4.7/5
¿Cansado de los falsos positivos?

Prueba Aikido como otros 100k.
Empiece ahora
Obtenga un recorrido personalizado

Con la confianza de más de 100k equipos

Reservar ahora
Escanee su aplicación en busca de IDORs y rutas de ataque reales

Con la confianza de más de 100k equipos

Empezar a escanear
Vea cómo el pentesting de IA prueba su aplicación

Con la confianza de más de 100k equipos

Empezar a probar

Asegura tu plataforma ahora

Protege tu código, la nube y el entorno de ejecución en un único sistema central.
Encuentra y corrije vulnerabilidades de forma rápida y automática.

No se requiere tarjeta de crédito | Resultados del escaneo en 32 segundos.