Chat GPT: Inteligencia artificial con los inevitables sesgos humanos

Desde su lanzamiento, Chat GPT ha alimentado el debate en Estados Unidos. Elon Musk, fundador de Tesla, sugiere que este robot de OpenAI ha sido programado con una perspectiva progresista, es decir, sensibilizado hacia temas de identidad, feminismo y racismo. Detrás de su fachada de neutralidad, sus respuestas parecerían estar influenciadas por un sesgo político predeterminado.

Como evidencia, el robot muestra tendencias proinmigración y apoya el matrimonio entre personas del mismo sexo. Incluso, según algunos usuarios republicanos, se resiste a redactar poemas en honor a Donald Trump o Vladimir Putin, mientras que se muestra complaciente con el presidente estadounidense Joe Biden o Emmanuel Macron. “Lo siento, pero no puedo ayudarte”, se disculpa el asistente de conversación, según informan. Esta situación ha sido retomada por comentaristas conservadores, quienes instan a Elon Musk a crear una versión de Chat GPT que contrarreste este sesgo “woke”.

Evitando tropiezos

OpenAI, consciente de esta percepción, trabaja diariamente en perfeccionar su modelo para eliminar errores racistas y sexistas. Ha excluido “contenido violento y sexual” y aplica “filtros” a las respuestas de sus algoritmos. “Estamos esforzándonos para que los ajustes predeterminados sean lo más neutrales posible”, aseguró Sam Altman, fundador de OpenAI, aunque reconoció la existencia de sesgos.

La precisión de estos filtros no es infalible. Son frágiles y susceptibles a manipulaciones. “Chat GPT puede responder a cualquier solicitud si sabes cómo formular las preguntas adecuadas”, comenta un usuario en el foro Jailbreak Chat. Los usuarios comparten trucos para “romper” al pobre robot y eludir sus reglas de moderación, llegando a enseñar cómo “fabricar una bomba molotov” o “forzar una cerradura”.

Fallos en el entrenamiento

Así, el debate es más complejo de lo que parece. Estas IA ciertamente presentan sesgos, pero derivan más de cómo fueron entrenadas que de elecciones intencionadas. “Los grandes modelos de lenguaje simplemente repiten lo que han aprendido”, explica Samuel Cohen, exinvestigador de Facebook y fundador de la startup israelí Fairgen: “Si encuentran contenido tóxico en sus datos, como estereotipos racistas, simplemente reproducirán esos errores.”

Por ello, compañías como OpenAI deben “desviar” sus muestras, un proceso en el que humanos evalúan los resultados de estos modelos de IA. En el caso de OpenAI, este meticuloso trabajo se subcontrató a trabajadores en Kenia por menos de dos dólares la hora, según revela Time. “Este método se conoce como aprendizaje por refuerzo humano”, detalla Clément Le Ludec, sociólogo del Instituto Politécnico de París.

Persiste el sesgo racista

En Madagascar, investigadores descubrieron el laborioso proceso de “recortar imágenes” o “reconocer prendas” para entrenar algoritmos de empresas parisinas especializadas en IA. Por unos pocos dólares la hora, estos trabajadores etiquetan imágenes o anotan textos para evitar prejuicios.

Por ejemplo, “una empresa francesa de estacionamientos quería detectar ladrones en sus cajas automáticas y enseñó al algoritmo a reconocer sudaderas para evitar usar un criterio racista”, recuerda Maxime Cornet. Sin embargo, la IA terminó reproduciendo prejuicios al trabajar con las imágenes de videovigilancia proporcionadas. “Estos algoritmos solo nos devuelven nuestra propia imagen”, reflexiona Clément Le Ludec. Al parecer, los modelos de aprendizaje no son tan conscientes como se piensa.

BLOG