ChatGPT: la inteligencia artificial no está exenta de estereotipos racistas

Un equipo de investigadores estadounidenses ha demostrado en un nuevo estudio que las herramientas de inteligencia artificial generativa integran prejuicios racistas hacia el lenguaje.

El problema de los prejuicios racistas y sexistas que la inteligencia artificial generativa (capaz de generar texto, imágenes u otros medios) puede propagar no es reciente, pero continúa siendo motivo de preocupación.

Investigadores de la Universidad de Stanford y miembros del Instituto Allen para la Inteligencia Artificial, fundado por el cofundador de Microsoft, Paul Allen, han publicado un estudio reciente que sugiere que la IA puede exhibir “prejuicios raciales sistemáticos”. “Aquí demostramos que los modelos de lenguaje encarnan racismo disfrazado en forma de sesgo dialectal”, lo que resulta en que “sus juicios (de la IA) estén problemáticamente inclinados contra grupos como los afroamericanos”, indica el estudio. Estos prejuicios se notaron especialmente en la reacción al dialecto ebonics, término usado en Estados Unidos para describir la variante lingüística hablada por los afroamericanos o, en términos más generales, por la población negra.

Las IA también presentan prejuicios

“Extendemos la investigación que muestra que los estadounidenses tienen estereotipos raciolingüísticos hacia los hablantes de inglés afroamericano”, indican los investigadores, “y descubrimos que los modelos de lenguaje (nota del redactor sobre la IA) presentan los mismos sesgos, exponiendo estereotipos ocultos que son más negativos que cualquier estereotipo sobre afroamericanos jamás registrado experimentalmente”. En términos menos técnicos, esto significa que las IA reaccionan de manera negativa ante estos hablantes, estigmatizándolos en comparación con aquellos que usan el inglés americano estándar.

 

Los líderes del proyecto advierten: “El sesgo dialectal puede tener consecuencias dañinas cuando se solicita a los modelos de lenguaje que tomen decisiones hipotéticas sobre personas (contratación, empleo, decisiones judiciales…), basándose únicamente en su manera de hablar. Es más probable que los patrones lingüísticos sugieran que los hablantes de inglés afroamericano obtengan trabajos menos prestigiosos, sean declarados culpables de delitos y condenados a muerte”.

Racismo encubierto

El equipo de investigación concluyó: “Los métodos actuales para mitigar el sesgo racial en los modelos de lenguaje, como el entrenamiento con retroalimentación humana, no solucionan el sesgo dialectal, sino que pueden aumentar la brecha entre los estereotipos ocultos y explícitos, enseñando a los modelos de lenguaje a ocultar superficialmente el racismo que albergan”.

Muchos expertos han subrayado la importancia de mantener el control sobre los prejuicios de los sistemas de inteligencia artificial. Entre ellos, Timnit Gebru, investigadora especializada en la ética de la inteligencia artificial y, en particular, en el sesgo algorítmico, quien hasta finales de 2020 fue codirectora del programa de Google dedicado a la IA ética. Posteriormente, fue despedida por sus críticas.

El 7 de marzo, en otro estudio, la UNESCO alertó sobre los grandes modelos de lenguaje de Meta y OpenAI, que son la base para herramientas de inteligencia artificial generativa y perpetúan prejuicios sexistas, racistas y homofóbicos.

BLOG