ChatGPT enfrenta un procedimiento en Italia para proteger los datos de los usuarios

INTELIGENCIA ARTIFICIAL: Roma pide la detención de ChatGPT. Las autoridades italianas anunciaron este viernes 31 de marzo que prohibían “de manera inmediata” a la empresa OpenAI y a su chatbot procesar los “datos de usuarios italianos” debido a preocupaciones sobre su seguridad. Según fuentes internas de la CNIL italiana en el Corriere della Serra, la empresa tendrá que “hacer la plataforma inaccesible” para los usuarios italianos probablemente a partir del 1 de abril. De lo contrario, OpenAI enfrentará sanciones severas.

¿La razón de esta decisión sin precedentes en Europa? Según un comunicado de prensa de la Autoridad Italiana de Protección de Datos Personales, ChatGPT no cumple con la normativa europea sobre el procesamiento de información privada y carece de un sistema para verificar la edad de los usuarios menores. Esto llevó a ordenar “la limitación provisional del tratamiento de datos de usuarios italianos por parte de OpenAI”, con efecto inmediato.

El organismo destaca que ChatGPT “experimentó el 20 de marzo una fuga de datos relacionada con las conversaciones de los usuarios e información sobre el pago de los suscriptores al servicio premium”. También critica “la falta de una notificación informativa para los usuarios, cuyos datos son recopilados por OpenAI, pero sobre todo la ausencia de una base legal que justifique la recopilación y el almacenamiento masivo de datos personales, con el propósito de entrenar los algoritmos que operan la plataforma.

GDPR, ¿enemigo número uno de la IA?

Además, aunque el robot está dirigido a personas mayores de 13 años, “la Autoridad resalta el hecho de que la falta de cualquier filtro para verificar la edad de los usuarios expone a los menores a respuestas no adecuadas para su nivel de desarrollo”.

La Autoridad solicita a OpenAI que “comunique en un plazo de 20 días las medidas adoptadas” para remediar esta situación, “bajo pena de una sanción de hasta 20 millones de euros o hasta el 4% del volumen de negocios global anual”, el máximo previsto por el Reglamento Europeo de Protección de Datos (GDPR).

La misma institución bloqueó en febrero la aplicación Replika, que permite chatear con un avatar personalizado. Algunos usuarios se quejaron de recibir mensajes e imágenes demasiado explícitos, cercanos al acoso sexual.

Estos casos muestran que el RGPD, que ya ha resultado en multas de miles de millones de dólares para gigantes tecnológicos, también podría convertirse en el enemigo de la nueva IA generativa de contenidos. La Unión Europea está preparando una ley para regular la inteligencia artificial, que podría estar lista a finales de 2023 o principios de 2024, para aplicarse unos años después.

Los gigantes tecnológicos alertan sobre los riesgos de la IA

Porque la IA suscita temores mucho más profundos que la mera explotación de datos personales. La agencia policial europea Europol advirtió el lunes que los criminales están listos para aprovechar la inteligencia artificial como el chatbot ChatGPT para cometer fraudes y otros crímenes cibernéticos.

Desde el phishing hasta la desinformación y el malware, las capacidades en constante evolución de los chatbots probablemente serán explotadas rápidamente por personas con malas intenciones, afirmó Europol en un informe. También pueden utilizarse para hacer trampa en exámenes y ChatGPT fue bloqueado poco después de su lanzamiento en varias escuelas o universidades de todo el mundo. Las grandes empresas también han aconsejado a sus empleados que no utilicen la aplicación por temor a filtraciones de datos confidenciales.

Finalmente, el multimillonario Elon Musk, uno de los fundadores de OpenAI, quien luego dejó la junta directiva, y cientos de expertos mundiales firmaron el miércoles un llamado a una pausa de seis meses en la investigación sobre inteligencia artificial. El objetivo son programas más potentes que GPT-4, la última versión del software en el que se basa ChatGPT, lanzada a mediados de marzo, citando “riesgos significativos para la humanidad”.

BLOG