Chat GPT: Inteligencia artificial con los inevitables sesgos humanos
Desde su lanzamiento, Chat GPT ha alimentado el debate en Estados Unidos. Elon Musk, fundador de Tesla, sugiere que este robot de OpenAI ha sido programado con una perspectiva progresista, es decir, sensibilizado hacia temas de identidad, feminismo y racismo. Detrás de su fachada de neutralidad, sus respuestas parecerían estar influenciadas por un sesgo político predeterminado.
Como evidencia, el robot muestra tendencias proinmigración y apoya el matrimonio entre personas del mismo sexo. Incluso, según algunos usuarios republicanos, se resiste a redactar poemas en honor a Donald Trump o Vladimir Putin, mientras que se muestra complaciente con el presidente estadounidense Joe Biden o Emmanuel Macron. “Lo siento, pero no puedo ayudarte”, se disculpa el asistente de conversación, según informan. Esta situación ha sido retomada por comentaristas conservadores, quienes instan a Elon Musk a crear una versión de Chat GPT que contrarreste este sesgo “woke”.
Evitando tropiezos
OpenAI, consciente de esta percepción, trabaja diariamente en perfeccionar su modelo para eliminar errores racistas y sexistas. Ha excluido “contenido violento y sexual” y aplica “filtros” a las respuestas de sus algoritmos. “Estamos esforzándonos para que los ajustes predeterminados sean lo más neutrales posible”, aseguró Sam Altman, fundador de OpenAI, aunque reconoció la existencia de sesgos.
La precisión de estos filtros no es infalible. Son frágiles y susceptibles a manipulaciones. “Chat GPT puede responder a cualquier solicitud si sabes cómo formular las preguntas adecuadas”, comenta un usuario en el foro Jailbreak Chat. Los usuarios comparten trucos para “romper” al pobre robot y eludir sus reglas de moderación, llegando a enseñar cómo “fabricar una bomba molotov” o “forzar una cerradura”.
Fallos en el entrenamiento
Así, el debate es más complejo de lo que parece. Estas IA ciertamente presentan sesgos, pero derivan más de cómo fueron entrenadas que de elecciones intencionadas. “Los grandes modelos de lenguaje simplemente repiten lo que han aprendido”, explica Samuel Cohen, exinvestigador de Facebook y fundador de la startup israelí Fairgen: “Si encuentran contenido tóxico en sus datos, como estereotipos racistas, simplemente reproducirán esos errores.”
Por ello, compañías como OpenAI deben “desviar” sus muestras, un proceso en el que humanos evalúan los resultados de estos modelos de IA. En el caso de OpenAI, este meticuloso trabajo se subcontrató a trabajadores en Kenia por menos de dos dólares la hora, según revela Time. “Este método se conoce como aprendizaje por refuerzo humano”, detalla Clément Le Ludec, sociólogo del Instituto Politécnico de París.
Persiste el sesgo racista
En Madagascar, investigadores descubrieron el laborioso proceso de “recortar imágenes” o “reconocer prendas” para entrenar algoritmos de empresas parisinas especializadas en IA. Por unos pocos dólares la hora, estos trabajadores etiquetan imágenes o anotan textos para evitar prejuicios.
Por ejemplo, “una empresa francesa de estacionamientos quería detectar ladrones en sus cajas automáticas y enseñó al algoritmo a reconocer sudaderas para evitar usar un criterio racista”, recuerda Maxime Cornet. Sin embargo, la IA terminó reproduciendo prejuicios al trabajar con las imágenes de videovigilancia proporcionadas. “Estos algoritmos solo nos devuelven nuestra propia imagen”, reflexiona Clément Le Ludec. Al parecer, los modelos de aprendizaje no son tan conscientes como se piensa.
BLOG
El uso indebido de ChatGPT perjudica el rendimiento académico y provoca pérdida de memoria
El uso generalizado de inteligencia artificial generativa, como ChatGPT, en el ámbito académico está generando preocupación creciente entre investigadores y educadores. Aunque muchos estudiantes consideran esta tecnología una solución rápida...
ChatGPT: La IA es más humana que algunos estudiantes, según demuestra este sorprendente estudio
Cuando se evalúan las capacidades de grandes modelos de lenguaje como ChatGPT, la mayoría de los estudios se centran en su habilidad para extraer información fáctica, ejecutar razonamientos lógicos o...
ChatGPT dice cualquier cosa sobre los internautas y es atacado
Se avecinan nuevos problemas para OpenAI, la empresa detrás de ChatGPT. El activista austriaco Max Schrems, conocido por su activismo contra los gigantes de internet en cuestiones de datos personales,...
La doble amenaza que ChatGPT representa para los secretos corporativos
Una vez que aprenden a usarlo, cada vez más empleados están utilizando ChatGPT para simplificar sus tareas, como responder correos electrónicos, preparar presentaciones o codificar software. Según Cyberhaven, una empresa...
ChatGPT presenta una nueva característica interesante… de la cual Europa se ve privada
ChatGPT finalmente incorporará la función de “memoria”. Esta característica, útil para recordar detalles sobre usted, lamentablemente no estará disponible en Europa. OpenAI lo anunció y ya es una realidad: ChatGPT...
Quejas sobre ‘ChatGPT’: la CNPD recuerda los principios básicos
La CNPD no tiene previsto pronunciarse sobre la decisión de la autoridad italiana respecto al uso de ChatGPT. A medida que las quejas aumentan, señala que correspondería al regulador irlandés...