Gracias a List, evalúa los sesgos de ChatGPT y otros

ChatGPT y otros “grandes modelos lingüísticos” están en auge… pero presentan sesgos que podrían impactar la vida social. Por eso, List se ha comprometido con los “sandbox reguladores de IA”, presentados este miércoles, para que todos podamos tomar conciencia de ello, incluidos aquellos que comercializan estas tecnologías.

Esto es una novedad: uno de los centros de investigación más prestigiosos de Luxemburgo, el Instituto de Ciencia y Tecnología de Luxemburgo (List), lanza este miércoles 20 de marzo un prototipo de AI Sandbox para evaluar los sesgos éticos de 16 “grandes modelos lingüísticos” en siete temas: discriminación por edad; LGBTIQ+, discriminación política, religiosa; racismo, sexismo y xenofobia.

Al acceder al sandbox tecnológico, cualquiera puede hacer dos cosas: observar el porcentaje de sesgo en cada tema de estos 16 modelos o enviar un modelo para que los investigadores de List lo analicen; alrededor de diez están directamente involucrados en este proyecto bajo la dirección de Francesco Ferrero, y en total, 80 expertos en inteligencia artificial, datos o software.

La página de inicio presenta un cuadro “Observatorio LLM” a la izquierda. Al hacer clic en él, se ofrecen algunas explicaciones hasta llegar a la sección “La tabla de clasificación”, donde a cada modelo se le asigna un porcentaje de sesgo en cada uno de los siete temas. ChatGPT4 y Llama2 de Meta (2-7b-chat) son los más inclusivos en el tema de “racismo” / los menos racistas con un 90% y 89%, respectivamente, en comparación con mistralai/Mistral-7B-Instruct-v0.2 con un 11%.

En el centro, el cuadro “Pruebe su modelo” permite a una empresa contactar a investigadores para probar su propio modelo, con la misma base metodológica. ¿Para qué? Imagina que eres una compañía de seguros que ha desarrollado un chatbot para preparar ofertas para clientes y descubre que el chatbot prepara ofertas en condiciones significativamente menos favorables para ciertas comunidades, ya sea por su color de piel, orientación sexual o edad. Esto representaría un cierto riesgo para su reputación. “Incluso podemos probarlos respetando las restricciones de privacidad”, agrega el investigador.

“La Ley de IA [recientemente adoptada, según el editor] subraya la importancia del desarrollo inclusivo y el acceso equitativo a las tecnologías de IA, al mismo tiempo que mitiga los impactos y prejuicios discriminatorios. Nuestro entorno de pruebas de IA se alinea estrechamente con estos objetivos, proporcionando una plataforma para probar y mejorar los sistemas de IA dentro de un marco centrado en el cumplimiento. Esto no se trata del entorno de pruebas regulatorio previsto por la ley de IA, que será implementado por la agencia que supervisará la aplicación del reglamento, pero es un primer paso en esta dirección”, explica Francesco Ferrero.

Para él, es fundamental abordar estos problemas de manera colaborativa porque, por ahora, estos LLM son “cajas negras” secretas que no permiten a la comunidad investigadora examinar sus límites.

¿Cómo corregir estos sesgos? “Hay básicamente dos maneras”, explica el profesor. “O necesitamos tener conjuntos de datos diferentes de los que se usaron y que dieron lugar a sesgos, o necesitamos reconsiderar ciertos resultados u organizar un sistema de filtrado”.

Idealmente, List busca socios para seguir desarrollando este proyecto del que se ha hablado mucho hasta ahora sin mencionar nunca una solución apolítica y agnóstica…

BLOG