ChatGPT: la inteligencia artificial no está exenta de estereotipos racistas
Un equipo de investigadores estadounidenses ha demostrado en un nuevo estudio que las herramientas de inteligencia artificial generativa integran prejuicios racistas hacia el lenguaje.
El problema de los prejuicios racistas y sexistas que la inteligencia artificial generativa (capaz de generar texto, imágenes u otros medios) puede propagar no es reciente, pero continúa siendo motivo de preocupación.
Investigadores de la Universidad de Stanford y miembros del Instituto Allen para la Inteligencia Artificial, fundado por el cofundador de Microsoft, Paul Allen, han publicado un estudio reciente que sugiere que la IA puede exhibir “prejuicios raciales sistemáticos”. “Aquí demostramos que los modelos de lenguaje encarnan racismo disfrazado en forma de sesgo dialectal”, lo que resulta en que “sus juicios (de la IA) estén problemáticamente inclinados contra grupos como los afroamericanos”, indica el estudio. Estos prejuicios se notaron especialmente en la reacción al dialecto ebonics, término usado en Estados Unidos para describir la variante lingüística hablada por los afroamericanos o, en términos más generales, por la población negra.
Las IA también presentan prejuicios
“Extendemos la investigación que muestra que los estadounidenses tienen estereotipos raciolingüísticos hacia los hablantes de inglés afroamericano”, indican los investigadores, “y descubrimos que los modelos de lenguaje (nota del redactor sobre la IA) presentan los mismos sesgos, exponiendo estereotipos ocultos que son más negativos que cualquier estereotipo sobre afroamericanos jamás registrado experimentalmente”. En términos menos técnicos, esto significa que las IA reaccionan de manera negativa ante estos hablantes, estigmatizándolos en comparación con aquellos que usan el inglés americano estándar.
Los líderes del proyecto advierten: “El sesgo dialectal puede tener consecuencias dañinas cuando se solicita a los modelos de lenguaje que tomen decisiones hipotéticas sobre personas (contratación, empleo, decisiones judiciales…), basándose únicamente en su manera de hablar. Es más probable que los patrones lingüísticos sugieran que los hablantes de inglés afroamericano obtengan trabajos menos prestigiosos, sean declarados culpables de delitos y condenados a muerte”.
Racismo encubierto
El equipo de investigación concluyó: “Los métodos actuales para mitigar el sesgo racial en los modelos de lenguaje, como el entrenamiento con retroalimentación humana, no solucionan el sesgo dialectal, sino que pueden aumentar la brecha entre los estereotipos ocultos y explícitos, enseñando a los modelos de lenguaje a ocultar superficialmente el racismo que albergan”.
Muchos expertos han subrayado la importancia de mantener el control sobre los prejuicios de los sistemas de inteligencia artificial. Entre ellos, Timnit Gebru, investigadora especializada en la ética de la inteligencia artificial y, en particular, en el sesgo algorítmico, quien hasta finales de 2020 fue codirectora del programa de Google dedicado a la IA ética. Posteriormente, fue despedida por sus críticas.
El 7 de marzo, en otro estudio, la UNESCO alertó sobre los grandes modelos de lenguaje de Meta y OpenAI, que son la base para herramientas de inteligencia artificial generativa y perpetúan prejuicios sexistas, racistas y homofóbicos.
BLOG
El uso indebido de ChatGPT perjudica el rendimiento académico y provoca pérdida de memoria
El uso generalizado de inteligencia artificial generativa, como ChatGPT, en el ámbito académico está generando preocupación creciente entre investigadores y educadores. Aunque muchos estudiantes consideran esta tecnología una solución rápida...
ChatGPT: La IA es más humana que algunos estudiantes, según demuestra este sorprendente estudio
Cuando se evalúan las capacidades de grandes modelos de lenguaje como ChatGPT, la mayoría de los estudios se centran en su habilidad para extraer información fáctica, ejecutar razonamientos lógicos o...
ChatGPT dice cualquier cosa sobre los internautas y es atacado
Se avecinan nuevos problemas para OpenAI, la empresa detrás de ChatGPT. El activista austriaco Max Schrems, conocido por su activismo contra los gigantes de internet en cuestiones de datos personales,...
La doble amenaza que ChatGPT representa para los secretos corporativos
Una vez que aprenden a usarlo, cada vez más empleados están utilizando ChatGPT para simplificar sus tareas, como responder correos electrónicos, preparar presentaciones o codificar software. Según Cyberhaven, una empresa...
ChatGPT presenta una nueva característica interesante… de la cual Europa se ve privada
ChatGPT finalmente incorporará la función de “memoria”. Esta característica, útil para recordar detalles sobre usted, lamentablemente no estará disponible en Europa. OpenAI lo anunció y ya es una realidad: ChatGPT...
Quejas sobre ‘ChatGPT’: la CNPD recuerda los principios básicos
La CNPD no tiene previsto pronunciarse sobre la decisión de la autoridad italiana respecto al uso de ChatGPT. A medida que las quejas aumentan, señala que correspondería al regulador irlandés...