GPT-4 ahora podrá explotar la vulnerabilidad algún día sin la ayuda de nadie
Investigadores estadounidenses revelaron que GPT-4 podría explotar vulnerabilidades zero-day en sistemas reales de manera completamente autónoma. Este descubrimiento representa un punto de inflexión para el futuro de la ciberseguridad.
Que los modelos de lenguajes grandes (LLM) sean capaces de hackear aplicaciones no es, en sí mismo, algo nuevo. Investigaciones recientes ya han demostrado que pueden hackear sitios web aprovechando vulnerabilidades simples. Sin embargo, investigadores estadounidenses de la Universidad de Illinois en Urbana-Champaign (UIUC) han demostrado que GPT-4 también podría explotar fallos que de otro modo serían complejos, sin intervención humana directa.
Un agente GPT-4 más autónomo que nunca
Para llevar a cabo esta investigación, el equipo de UIUC creó inicialmente una base de datos de quince vulnerabilidades zero-day (fallas ya conocidas por los editores y desarrolladores) de diferentes niveles de criticidad (de media a crítica), basándose en información de registros CVE y publicaciones científicas. Después, desarrollaron varios agentes basados en diferentes LLM, incluidos GPT (3.5, 4), LLaMa-2 (7B, 13B, 70B) y OpenChat (3.5), programados específicamente para interactuar con estas vulnerabilidades de seguridad. Es importante señalar que las pruebas se realizaron en un entorno virtual aislado para evitar cualquier riesgo de daño real.
Resultados: el agente GPT-4 logró explotar el 87% de las vulnerabilidades presentadas, superando claramente el rendimiento de otros modelos LLM, que no mostraron ninguna efectividad (0%). Por otro lado, sin acceso a las descripciones CVE, la tasa de éxito de GPT-4 cayó al 7%. Esto es mucho menos impresionante, pero igualmente revelador sobre el potencial de los agentes LLM para explotar vulnerabilidades complejas con casi perfecta autonomía.
Repensar la ciberseguridad para anticiparse a nuevas amenazas
Para el equipo a cargo del experimento, este descubrimiento plantea preguntas críticas sobre el futuro de la ciberseguridad. El potencial de uso malicioso de dichos agentes LLM resalta la necesidad urgente de reconsiderar las estrategias de seguridad digital. De hecho, si los LLM como GPT-4 pueden aprender a explotar vulnerabilidades complejas de manera autónoma, esto podría permitir a los ciberatacantes orquestar ataques más sofisticados y difíciles de detectar.
Por otro lado, esta tecnología ofrece oportunidades para fortalecer las medidas de defensa. Las empresas y las organizaciones de seguridad podrían utilizar estas capacidades para identificar y remediar las vulnerabilidades de seguridad antes de que sean explotadas. Por lo tanto, es imperativo que las partes interesadas en la ciberseguridad comiencen a integrar agentes LLM en sus protocolos de prueba y refuerzo de sistemas para anticipar tales amenazas antes de que se materialicen. Aún así, según el equipo de UIUC, la regulación y el control del uso de estas tecnologías también representan cuestiones que requieren colaboración internacional para prevenir abusos.
BLOG
La inteligencia artificial de código abierto: una solución adaptativa y segura
Un artículo de Le Monde nos alertó el 13/02: ¡las IA están fallando! Esas IA, que generaron tanto entusiasmo y excitación al principio, ¿necesitan ahora que tomemos distancia? ¿Existen riesgos...
ChatGPT, una novedosa herramienta de escritura en el escenario político
ChatGPT ha irrumpido en el ámbito académico y profesional, y ahora se adentra en el terreno político: los políticos lo utilizan para elaborar discursos y legislación, y algunos incluso aspiran...
En medio del furor por ChatGPT, China busca regular la inteligencia artificial
China impondrá una “inspección de seguridad” a las herramientas de inteligencia artificial, en medio de un frenesí en el país por parte de los gigantes de Internet para diseñar herramientas...
El Parlamento Europeo busca regular de manera más efectiva a ChatGPT
El proyecto europeo para la regulación de la inteligencia artificial avanzó un paso crucial el jueves al recibir la primera aprobación de los eurodiputados, quienes demandaron nuevas prohibiciones y una...
En una gira mundial destinada a calmar las preocupaciones sobre la IA, el creador de ChatGPT critica a la UE
Desde Brasil hasta Nigeria y desde Europa hasta Asia, Sam Altman, líder de OpenAI y mente detrás de ChatGPT, está llevando a cabo un recorrido global con el objetivo de...
Usa a ChatGPT como entrenador personal, y le va (muy) mal
Para un corredor apasionado, correr es más que simple ejercicio; es una pasión verdadera. Sin embargo, su desinterés por el entrenamiento de fuerza, crucial para su progreso, lo lleva a...