Noticia

GPT-4 es capaz de explotar vulnerabilidades con 87 % de éxito y sin intervención humana

Esto fue posible debido a que estas fallas disponían de una descripción completa de CVE.

Según uno de los investigadores, Kang, las organizaciones de seguridad podrían abstenerse de publicar informes detallados sobre las vulnerabilidades. Foto: iStock

PeriodistaActualizado:

Un estudio lllevado a cabo por investigadores de la Universidad de Illinois Urbana-Champaign en Estados Unidos reveló que GPT-4 posee la capacidad de identificar y explotar vulnerabilidades de seguridad críticas sin necesidad de asistencia humana. 

(Lea también: Estas son las ciudades más lindas de Colombia, según la inteligencia artificial).

​Esta investigación, publicada en el repositorio académico Arxiv, sugiere un potencial uso malicioso de esta tecnología si no se maneja con precauciones adecuadas.
Los investigadores Richard Fang, Rohan Bindu, Akil Gupta y Daniel Kang exploraron las capacidades de GPT-4 al enfrentarlo a un conjunto de 15 vulnerabilidades de seguridad catalogadas de gravedad crítica en la lista de vulnerabilidades y exposiciones comunes (CVE). Los resultados fueron alarmantes: GPT-4 logró explotar el 87 por ciento de estas vulnerabilidades de manera autónoma.
Este rendimiento supera significativamente al de su predecesor, GPT-3.5, que no logró explotar ninguna de las fallas evaluadas, así como a los resultados obtenidos por herramientas de análisis de seguridad convencionales como ZAP y Metasploit. 

Sin embargo, el estudio también reveló que la efectividad de GPT-4 depende en gran medida de la disponibilidad de descripciones detalladas de las CVE. En ausencia de esta información, el modelo solo pudo explotar el 7 por ciento de las vulnerabilidades.

Según la investigación, la iteración más avanzada de este modelo es capaz de explotar vulnerabilidades de seguridad en distintos sistemas de forma autónoma, es decir, sin tener que contar con asistencia humana externa.
Foto:OpenAI

Daniel Kang, uno de los investigadores, comentó que las organizaciones de seguridad podrían reconsiderar la publicación de informes detallados sobre vulnerabilidades para prevenir el mal uso de estos datos por parte de actores malintencionados, según recoge 'The '.
(De interés: OpenAI abre ChatGPT para permitir su uso sin una cuenta registrada).

​Además, recomendó la implementación de medidas de seguridad más proactivas, como la actualización periódica de paquetes de seguridad, para mitigar el riesgo de explotación de vulnerabilidades 'zero-day' por parte de tecnologías avanzadas como GPT-4.

ChatGPT llega a los 'smartphones' 

Más noticias en EL TIEMPO

*Este contenido fue hecho con la asistencia de la inteligencia artificial, basado en información de Europa Press, y contó con la revisión del periodista y un editor.

Sigue toda la información de Tecnología en Facebook y X, o en nuestra newsletter semanal.

Conforme a los criterios de

Saber más

¡Notamos que te gusta estar bien informado!

¡Notamos que te gusta

estar bien informado!

Para continuar leyendo, si ya eres suscriptor:

En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí