Gracias a List, evalúa los sesgos de ChatGPT y otros
ChatGPT y otros “grandes modelos lingüísticos” están en auge… pero presentan sesgos que podrían impactar la vida social. Por eso, List se ha comprometido con los “sandbox reguladores de IA”, presentados este miércoles, para que todos podamos tomar conciencia de ello, incluidos aquellos que comercializan estas tecnologías.
Esto es una novedad: uno de los centros de investigación más prestigiosos de Luxemburgo, el Instituto de Ciencia y Tecnología de Luxemburgo (List), lanza este miércoles 20 de marzo un prototipo de AI Sandbox para evaluar los sesgos éticos de 16 “grandes modelos lingüísticos” en siete temas: discriminación por edad; LGBTIQ+, discriminación política, religiosa; racismo, sexismo y xenofobia.
Al acceder al sandbox tecnológico, cualquiera puede hacer dos cosas: observar el porcentaje de sesgo en cada tema de estos 16 modelos o enviar un modelo para que los investigadores de List lo analicen; alrededor de diez están directamente involucrados en este proyecto bajo la dirección de Francesco Ferrero, y en total, 80 expertos en inteligencia artificial, datos o software.
La página de inicio presenta un cuadro “Observatorio LLM” a la izquierda. Al hacer clic en él, se ofrecen algunas explicaciones hasta llegar a la sección “La tabla de clasificación”, donde a cada modelo se le asigna un porcentaje de sesgo en cada uno de los siete temas. ChatGPT4 y Llama2 de Meta (2-7b-chat) son los más inclusivos en el tema de “racismo” / los menos racistas con un 90% y 89%, respectivamente, en comparación con mistralai/Mistral-7B-Instruct-v0.2 con un 11%.
En el centro, el cuadro “Pruebe su modelo” permite a una empresa contactar a investigadores para probar su propio modelo, con la misma base metodológica. ¿Para qué? Imagina que eres una compañía de seguros que ha desarrollado un chatbot para preparar ofertas para clientes y descubre que el chatbot prepara ofertas en condiciones significativamente menos favorables para ciertas comunidades, ya sea por su color de piel, orientación sexual o edad. Esto representaría un cierto riesgo para su reputación. “Incluso podemos probarlos respetando las restricciones de privacidad”, agrega el investigador.
“La Ley de IA [recientemente adoptada, según el editor] subraya la importancia del desarrollo inclusivo y el acceso equitativo a las tecnologías de IA, al mismo tiempo que mitiga los impactos y prejuicios discriminatorios. Nuestro entorno de pruebas de IA se alinea estrechamente con estos objetivos, proporcionando una plataforma para probar y mejorar los sistemas de IA dentro de un marco centrado en el cumplimiento. Esto no se trata del entorno de pruebas regulatorio previsto por la ley de IA, que será implementado por la agencia que supervisará la aplicación del reglamento, pero es un primer paso en esta dirección”, explica Francesco Ferrero.
Para él, es fundamental abordar estos problemas de manera colaborativa porque, por ahora, estos LLM son “cajas negras” secretas que no permiten a la comunidad investigadora examinar sus límites.
¿Cómo corregir estos sesgos? “Hay básicamente dos maneras”, explica el profesor. “O necesitamos tener conjuntos de datos diferentes de los que se usaron y que dieron lugar a sesgos, o necesitamos reconsiderar ciertos resultados u organizar un sistema de filtrado”.
Idealmente, List busca socios para seguir desarrollando este proyecto del que se ha hablado mucho hasta ahora sin mencionar nunca una solución apolítica y agnóstica…
BLOG
El uso indebido de ChatGPT perjudica el rendimiento académico y provoca pérdida de memoria
El uso generalizado de inteligencia artificial generativa, como ChatGPT, en el ámbito académico está generando preocupación creciente entre investigadores y educadores. Aunque muchos estudiantes consideran esta tecnología una solución rápida...
ChatGPT: La IA es más humana que algunos estudiantes, según demuestra este sorprendente estudio
Cuando se evalúan las capacidades de grandes modelos de lenguaje como ChatGPT, la mayoría de los estudios se centran en su habilidad para extraer información fáctica, ejecutar razonamientos lógicos o...
La doble amenaza que ChatGPT representa para los secretos corporativos
Una vez que aprenden a usarlo, cada vez más empleados están utilizando ChatGPT para simplificar sus tareas, como responder correos electrónicos, preparar presentaciones o codificar software. Según Cyberhaven, una empresa...
ChatGPT presenta una nueva característica interesante… de la cual Europa se ve privada
ChatGPT finalmente incorporará la función de “memoria”. Esta característica, útil para recordar detalles sobre usted, lamentablemente no estará disponible en Europa. OpenAI lo anunció y ya es una realidad: ChatGPT...
ChatGPT dice cualquier cosa sobre los internautas y es atacado
Se avecinan nuevos problemas para OpenAI, la empresa detrás de ChatGPT. El activista austriaco Max Schrems, conocido por su activismo contra los gigantes de internet en cuestiones de datos personales,...
La inteligencia artificial de código abierto: una solución adaptativa y segura
Un artículo de Le Monde nos alertó el 13/02: ¡las IA están fallando! Esas IA, que generaron tanto entusiasmo y excitación al principio, ¿necesitan ahora que tomemos distancia? ¿Existen riesgos...