2026

Estado de la IA en seguridad y desarrollo

Nuestro nuevo informe recoge las opiniones de 450 responsables de seguridad (CISO o equivalentes), desarrolladores e ingenieros de seguridad de aplicaciones de Europa y Estados Unidos. Juntos, revelan cómo la IA en la ciberseguridad y el desarrollo de software ya está rompiendo cosas, cómo la proliferación de herramientas está empeorando la seguridad y cómo la experiencia de los desarrolladores está directamente vinculada a las tasas de incidentes. Aquí es donde la velocidad y la seguridad chocan en 2026.

Principales resultados

01

Adopción de la IA

1 de cada 5 sufrió un incidente grave relacionado con el código IA

"Mientras las organizaciones luchan por aprovechar los beneficios de la IA, a menudo hay una batalla oculta asociada, y es la de mantener su organización a salvo del aumento del riesgo cibernético que presenta la IA. El papel del CISO es garantizar que la postura de seguridad se escala tan rápido como lo hace la tecnología."

Christelle Heikkilä
Ex CIO/CISO, Arsenal FC

El 53% culpa al equipo de seguridad de los incidentes relacionados con el código de IA

Q. Si una vulnerabilidad introducida por el código de GenAI provocara posteriormente un incidente de seguridad, ¿quién sería el responsable último en su organización? Seleccione todos los que correspondan

"Hay una clara falta de claridad entre los encuestados sobre dónde debe recaer la responsabilidad de una buena gestión del riesgo"

Andy Boura
CISO, Rothesay
02

Experiencia de los desarrolladores

15%
del tiempo de ingeniería se pierde en triar alertas

Son 20 millones de dólares al año para una organización de 1.000 desarrolladores.

$ desperdiciados en falsos positivos
Resto $ desperdiciados en triaje

Coste anual estimado del tiempo que los desarrolladores dedican al triaje

$720k
$3.6m
$14.4m

2/3 de los encuestados eluden la seguridad, descartan las conclusiones o retrasan las correcciones

44%
37%
35%
34%
32%
22%
P: ¿Cómo ha afectado a sus prácticas de desarrollo la gestión de los falsos positivos de las herramientas de seguridad? Seleccione todo lo que corresponda.

"Cuando las herramientas de seguridad abruman a los desarrolladores con ruido, se ven obligados a recurrir a soluciones arriesgadas. Nuestro objetivo es restablecer el equilibrio eliminando los falsos positivos, reforzando los guardarraíles y mejorando la experiencia de los desarrolladores, para que los equipos puedan centrarse en lo que realmente importa".

Darshit Pandya
Ingeniero Principal Senior - Plataforma, Serko

Las herramientas creadas tanto para equipos de desarrollo como de seguridad registraron muchos menos incidentes.

Los equipos que utilizaban herramientas diseñadas tanto para desarrolladores como para equipos de seguridad tenían más del doble de probabilidades de notificar cero incidentes en comparación con los que utilizaban herramientas hechas para un solo grupo.

"Dar a los desarrolladores la herramienta de seguridad adecuada que funcione con las herramientas y flujos de trabajo existentes, permite a los equipos aplicar las mejores prácticas de seguridad y mejorar su postura"

Walid Mahmoud
Jefe de DevSecOps, Oficina del Gabinete del Reino Unido

La realidad de la seguridad

03

"Es un poco irónico que el sector hable tanto de sustituir a las personas por la IA, pero en seguridad nos preocupemos mucho más por no tener suficiente personal de seguridad"

Igor Andriushchenko,
CISO, Lovable

Los equipos que utilizan herramientas AppSec y CloudSec por separado tienen un 50% más de probabilidades de enfrentarse a incidentes

"Está claro que necesitamos combinar nuestros programas AppSec y Cloud Security en un único equipo de seguridad de producto. Para las empresas en las que la infraestructura se define como código, la seguridad en la nube es fundamentalmente seguridad del código, e impulsa mejores resultados."

James Berthoty
Fundador, Latio Tech

El futuro de la IA

El 96% cree que la IA escribirá código seguro y fiable

En un plazo de 1 a 2 años
20%
3-5 años
44%
24%
6-10 años
+10 años
8%
4%
nunca
Pero sólo el 21% cree que será sin supervisión humana

9 de cada 10 organizaciones esperan que la IA se haga cargo de las pruebas de penetración, con un plazo medio de 5,5 años.

9/10 organizaciones

Si trabajas en seguridad de software, tienes que leer esto.