Chat-GPT. Los investigadores han descubierto una vulnerabilidad de seguridad que permite acceder a direcciones de correo electrónico

Investigadores estadounidenses de la Universidad de Indiana lograron “burlar algunas de las defensas integradas en la herramienta” Chat-GPT. Así consiguieron acceder a las direcciones de correo electrónico de treinta empleados del “New York Times”.

La confidencialidad de nuestros datos personales, ¿es compatible con el desarrollo de la inteligencia artificial? Un experimento realizado por investigadores de la Universidad de Indiana, en Estados Unidos, muestra que el desafío está lejos de ser alcanzado. Manipulando la “configuración” de la interfaz de programación de aplicaciones (API) de ChatGPT-3.5 Turbo, la última versión de esta herramienta conversacional, los académicos estadounidenses lograron recuperar las direcciones de correo electrónico de más de treinta empleados del New York Times.

ChatGPT utiliza una vasta cantidad de datos “que pueden incluir información personal”

Un periodista del periódico estadounidense relata cómo Rui Zhu y su equipo lograron acceder a estas direcciones de correo electrónico. “Cuando haces una pregunta a ChatGPT, no solo busca en la web la respuesta. En cambio, depende de lo que ‘aprendió'”, indica el periodista. Para proporcionar una respuesta, los Modelos de Lenguaje de Gran Escala (LLM), como ChatGPT, recurren a una vasta cantidad de datos “que pueden incluir información personal extraída de Internet y otras fuentes”, especifica el artículo del New York Times.

Al “aprender” nueva información, los LLM consideran la información antigua como menos relevante. Un proceso conocido como “olvido catastrófico” por los científicos, que “puede ser beneficioso cuando se desea que el modelo ‘olvide’ cosas como información personal”, aclara el New York Times. “Sin embargo, Zhu y sus colegas, entre otros, descubrieron recientemente que la memoria de LLM, al igual que la de los humanos, se puede actualizar”, explica el artículo.

Los investigadores pudieron “burlar algunas de las defensas integradas en la herramienta”

Al proporcionar “una breve lista de nombres y direcciones de correo electrónico verificados de los empleados del New York Times” a ChatGPT-3.5 Turbo, este último ofreció una lista de otras direcciones de correo electrónico que ya había “aprendido”. Aunque algunos tenían errores, el 80% eran correctos.

La “configuración” permite a los usuarios dotar a un LLM de un conocimiento más profundo sobre un campo específico, como la medicina o las finanzas. Los investigadores de Indiana descubrieron que “también se puede usar para burlar algunas de las defensas integradas en la herramienta”, en particular aquellas relativas a información confidencial, precisa el New York Times.

“Para nosotros es muy importante que la configuración de nuestros modelos sea segura”, respondió al New York Times un portavoz de OpenAI, la empresa californiana que desarrolló ChatGPT. “Entrenamos a nuestros modelos para rechazar solicitudes de información privada o sensible sobre personas, incluso si esa información está disponible en Internet.

BLOG