CHAT GPT de cara al RGPD europeo, un dolor de cabeza legal

El 31 de marzo, Italia tomó una decisión drástica: su Autoridad de Protección de Datos Personales bloqueó Chat GPT. Con su decisión de “efecto inmediato”, acusó a OpenAI de violar la regulación europea que protege los datos personales de los usuarios (RGPD). Esta medida abre el debate sobre la regulación de las inteligencias artificiales generativas. ¿Qué nuevos desafíos legales plantea?

Ante esta decisión, hay quien aplaude y quien muestra consternación. Stéphane Roder, fundador de la consultora AI Builders, celebra: “La autoridad italiana finalmente ha puesto de relieve los riesgos de diseminación de datos sensibles. Estábamos al borde de una catástrofe.”

El entusiasmo por la nueva herramienta llevó a empleados a alimentar Chat GPT con notas o contratos, sin darse cuenta de que estaban divulgando secretos comerciales. “Al prohibir su uso, esta autoridad envía un mensaje desalentador a aquellos que desearían invertir en IA en Europa”, lamenta Etienne Drouard, socio en Hogan Lovells.

La prohibición es una “mala respuesta” a un problema real, matiza el ministro francés de Digital, Jean-Noël Barrot. “El tratamiento masivo de datos no está bien regulado”, resume el profesor de derecho Emmanuel Netter.

Derecho de excavación autorizado

Antes del episodio italiano, los juristas ya debatían sobre los derechos de autor. Pronto podrán referirse a un primer caso. La base de fotos Getty inició un procedimiento en Londres contra Stability AI, creador de una IA que genera imágenes sintéticas, acusándola de extraer “ilegalmente” millones de imágenes de su sitio.

No es seguro que la demanda prospere, ya que el derecho europeo permite un “derecho de excavación” (data mining) sobre todos los contenidos públicamente accesibles, incluso protegidos, a menos que el titular de los derechos lo prohíba expresamente. La protección de las obras generadas por una IA también es un tema de debate. “El derecho de autor requiere que la creación sea obra de un ser humano y que sea original, es decir, que refleje la personalidad de su autor”, recuerda la abogada Isabelle Wekstein.

La obra producida por una IA, por tanto, no está protegida. ¿Y si interviene un humano? “Dar instrucciones no será suficiente (para obtener protección por derecho de autor). Será necesario demostrar las etapas de un proceso creativo.”

Sectores sensibles bajo vigilancia

Otro dilema legal es la responsabilidad civil de una IA. Un drama muy real ilustra el tema. A finales de marzo, un joven belga se suicidó después de discutir largamente sus preocupaciones sobre el clima con Eliza, un robot conversacional. Su viuda cree que esos intercambios lo impulsaron al suicidio.

En el banquillo de los acusados, Eliza no estaba clasificada como IA “de alto riesgo” bajo el Artificial Intelligence Act, la regulación europea en preparación, que impone restricciones especiales a los algoritmos que impactan en sectores sensibles: salud, vigilancia, transporte, finanzas…

Con Europa a la vanguardia de la regulación digital, ¿ha fallado en su objetivo? “El texto no anticipa los cisnes negros, es decir, los riesgos sistémicos impredecibles”, advierte Winston Maxwell, profesor de derecho en Télécom Paris. Por otro lado, el abogado Etienne Drouard teme “un infierno legal lleno de buenas intenciones”.

Para Stéphane Roder, la implementación del futuro reglamento significará “la muerte de las PYMEs”. Entre la carrera desenfrenada por la innovación y la necesidad de regulación, rara vez ha sido tan difícil encontrar el equilibrio adecuado.

BLOG