Los modelos de inteligencia artificial son tan buenos detectando vulnerabilidades que algunos expertos afirman que la industria tecnológica podría tener que replantearse cómo se construye el software.
Vlad Ionescu y Ariel Herbert-Voss, cofundadores de la startup de ciberseguridad RunSybil, se sorprendieron cuando su herramienta de IA, Sybil, les alertó de un punto débil en los sistemas de un cliente el pasado noviembre.
Sybil utiliza una combinación de diferentes modelos de inteligencia artificial, así como algunos trucos técnicos propios, para escanear sistemas informáticos en busca de problemas que los hackers podrían aprovechar, como un servidor sin parches o una base de datos mal configurada.
Qué les alertó Sybil
En este caso, la IA detectó un problema en la implantación por parte del cliente de GraphQL federado, un lenguaje utilizado para especificar cómo se accede a los datos a través de la web mediante interfaces de programación de aplicaciones (API). El problema significaba que el cliente estaba exponiendo información confidencial.
VIDEOUn paleontólogo nos responde nuestras dudas sobre la extinción de los dinosaurios | Tech Support
Lo que dejó boquiabiertos a Ionescu y Herbert-Voss fue que detectar el problema requería un conocimiento extraordinariamente profundo de varios sistemas diferentes y de cómo interactuaban entre sí. Desde entonces, RunSybil ha detectado el mismo problema en otras implantaciones de GraphQL, antes de que nadie lo hiciera público. “Buscamos en internet y no existía. Descubrirlo fue un paso de razonamiento en cuanto a las capacidades de los modelos: un cambio radical”, afirma Herbert-Voss.
La situación apunta a un riesgo creciente. A medida que los modelos de IA siguen haciéndose más inteligentes, su capacidad para encontrar ataques de día cero y otras vulnerabilidades también sigue creciendo. La misma inteligencia que puede utilizarse para detectar vulnerabilidades también puede encontrar la forma de explotarlas.
Dawn Song, informático de la Universidad de Berkeley especializado en IA y seguridad, afirma que los últimos avances en IA han dado lugar a modelos más capaces de detectar fallos. El razonamiento simulado, que consiste en dividir los problemas en partes constituyentes, y la IA agéntica, como las búsquedas online o la instalación y ejecución de herramientas de software, han aumentado las capacidades cibernéticas de los modelos.
Encontrar vulnerabilidades en el sistema
“Las capacidades de ciberseguridad de los modelos de frontera han aumentado drásticamente en los últimos meses. Este es un punto de inflexión”, indica Song. El año pasado, cocreó un punto de referencia llamado CyberGym para determinar lo bien que los grandes modelos de lenguaje (LLM) encuentran vulnerabilidades en grandes proyectos de software de código abierto. CyberGym incluye 1,507 vulnerabilidades conocidas encontradas en 188 proyectos.
En julio de 2025, Claude Sonnet 4 de Anthropic fue capaz de encontrar alrededor del 20% de las vulnerabilidades de la referencia. En octubre de 2025, el nuevo Claude Sonnet 4.5, fue capaz de identificar el 30%. “Los agentes de IA son capaces de encontrar vulnerabilidades de día cero, y a muy bajo costo”, afirma Song.
Song menciona que esta tendencia muestra la necesidad de nuevas contramedidas, incluyendo que la IA ayude a los expertos en ciberseguridad: “Tenemos que pensar en cómo hacer que la IA sea un recurso de defensa”.
Una idea es que las empresas punteras en IA compartan modelos con los investigadores de seguridad antes de su lanzamiento, de modo que puedan utilizarlos para encontrar fallos y proteger los sistemas antes de su lanzamiento general.
Otra contramedida, de acuerdo con Song, es replantearse cómo se construye el software. Su laboratorio ha demostrado que es posible utilizar la IA para generar código más seguro que el que utiliza la mayoría de los programadores hoy en día: “A largo plazo, creemos que este enfoque de diseño seguro ayudará mucho a los defensores”.
El equipo de RunSybil afirma que, a corto plazo, las habilidades de codificación de los modelos de IA podrían suponer una ventaja para los hackers. “La IA puede generar acciones en una computadora y generar código, y esas son dos cosas que hacen los hackers. Si esas capacidades se aceleran, eso significa que las acciones ofensivas de seguridad también se acelerarán”, afirma Herbert-Voss.
Lo más visto
- CienciaLa física detrás del cuádruple axel, el salto más difícil del patinaje artísticoPor Marta Musso
- CulturaLa historia detrás del sorprendente salto del patinador sobre hielo Ilia MalininPor Paolo Armelli
- SeguridadEl cierre aéreo en El Paso mostró la falta de comunicación entre Migración y las agencias de EE UUPor Lily Hay Newman
- PoliticaQué dice la reforma laboral de Milei que amenaza con desatar una nueva huelga generalPor Fernanda González
Publicidad
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.
Image Credits: Getty Images

