ChatGPT enfrenta un procedimiento en Italia para proteger los datos de los usuarios
INTELIGENCIA ARTIFICIAL: Roma pide la detención de ChatGPT. Las autoridades italianas anunciaron este viernes 31 de marzo que prohibían “de manera inmediata” a la empresa OpenAI y a su chatbot procesar los “datos de usuarios italianos” debido a preocupaciones sobre su seguridad. Según fuentes internas de la CNIL italiana en el Corriere della Serra, la empresa tendrá que “hacer la plataforma inaccesible” para los usuarios italianos probablemente a partir del 1 de abril. De lo contrario, OpenAI enfrentará sanciones severas.
¿La razón de esta decisión sin precedentes en Europa? Según un comunicado de prensa de la Autoridad Italiana de Protección de Datos Personales, ChatGPT no cumple con la normativa europea sobre el procesamiento de información privada y carece de un sistema para verificar la edad de los usuarios menores. Esto llevó a ordenar “la limitación provisional del tratamiento de datos de usuarios italianos por parte de OpenAI”, con efecto inmediato.
El organismo destaca que ChatGPT “experimentó el 20 de marzo una fuga de datos relacionada con las conversaciones de los usuarios e información sobre el pago de los suscriptores al servicio premium”. También critica “la falta de una notificación informativa para los usuarios, cuyos datos son recopilados por OpenAI, pero sobre todo la ausencia de una base legal que justifique la recopilación y el almacenamiento masivo de datos personales, con el propósito de entrenar los algoritmos que operan la plataforma.
GDPR, ¿enemigo número uno de la IA?
Además, aunque el robot está dirigido a personas mayores de 13 años, “la Autoridad resalta el hecho de que la falta de cualquier filtro para verificar la edad de los usuarios expone a los menores a respuestas no adecuadas para su nivel de desarrollo”.
La Autoridad solicita a OpenAI que “comunique en un plazo de 20 días las medidas adoptadas” para remediar esta situación, “bajo pena de una sanción de hasta 20 millones de euros o hasta el 4% del volumen de negocios global anual”, el máximo previsto por el Reglamento Europeo de Protección de Datos (GDPR).
La misma institución bloqueó en febrero la aplicación Replika, que permite chatear con un avatar personalizado. Algunos usuarios se quejaron de recibir mensajes e imágenes demasiado explícitos, cercanos al acoso sexual.
Estos casos muestran que el RGPD, que ya ha resultado en multas de miles de millones de dólares para gigantes tecnológicos, también podría convertirse en el enemigo de la nueva IA generativa de contenidos. La Unión Europea está preparando una ley para regular la inteligencia artificial, que podría estar lista a finales de 2023 o principios de 2024, para aplicarse unos años después.
Los gigantes tecnológicos alertan sobre los riesgos de la IA
Porque la IA suscita temores mucho más profundos que la mera explotación de datos personales. La agencia policial europea Europol advirtió el lunes que los criminales están listos para aprovechar la inteligencia artificial como el chatbot ChatGPT para cometer fraudes y otros crímenes cibernéticos.
Desde el phishing hasta la desinformación y el malware, las capacidades en constante evolución de los chatbots probablemente serán explotadas rápidamente por personas con malas intenciones, afirmó Europol en un informe. También pueden utilizarse para hacer trampa en exámenes y ChatGPT fue bloqueado poco después de su lanzamiento en varias escuelas o universidades de todo el mundo. Las grandes empresas también han aconsejado a sus empleados que no utilicen la aplicación por temor a filtraciones de datos confidenciales.
Finalmente, el multimillonario Elon Musk, uno de los fundadores de OpenAI, quien luego dejó la junta directiva, y cientos de expertos mundiales firmaron el miércoles un llamado a una pausa de seis meses en la investigación sobre inteligencia artificial. El objetivo son programas más potentes que GPT-4, la última versión del software en el que se basa ChatGPT, lanzada a mediados de marzo, citando “riesgos significativos para la humanidad”.
BLOG
El uso indebido de ChatGPT perjudica el rendimiento académico y provoca pérdida de memoria
El uso generalizado de inteligencia artificial generativa, como ChatGPT, en el ámbito académico está generando preocupación creciente entre investigadores y educadores. Aunque muchos estudiantes consideran esta tecnología una solución rápida...
ChatGPT: La IA es más humana que algunos estudiantes, según demuestra este sorprendente estudio
Cuando se evalúan las capacidades de grandes modelos de lenguaje como ChatGPT, la mayoría de los estudios se centran en su habilidad para extraer información fáctica, ejecutar razonamientos lógicos o...
ChatGPT dice cualquier cosa sobre los internautas y es atacado
Se avecinan nuevos problemas para OpenAI, la empresa detrás de ChatGPT. El activista austriaco Max Schrems, conocido por su activismo contra los gigantes de internet en cuestiones de datos personales,...
La doble amenaza que ChatGPT representa para los secretos corporativos
Una vez que aprenden a usarlo, cada vez más empleados están utilizando ChatGPT para simplificar sus tareas, como responder correos electrónicos, preparar presentaciones o codificar software. Según Cyberhaven, una empresa...
ChatGPT presenta una nueva característica interesante… de la cual Europa se ve privada
ChatGPT finalmente incorporará la función de “memoria”. Esta característica, útil para recordar detalles sobre usted, lamentablemente no estará disponible en Europa. OpenAI lo anunció y ya es una realidad: ChatGPT...
Quejas sobre ‘ChatGPT’: la CNPD recuerda los principios básicos
La CNPD no tiene previsto pronunciarse sobre la decisión de la autoridad italiana respecto al uso de ChatGPT. A medida que las quejas aumentan, señala que correspondería al regulador irlandés...