“Mi GPT está hechizado”: Por unas horas, ChatGPT habló disparates

La inteligencia artificial de OpenAI experimentó un fallo que llevó al chatbot a proporcionar respuestas incoherentes a los usuarios.

ChatGPT, la interfaz de inteligencia artificial generativa que popularizó esta tecnología, sufrió un desajuste durante varias horas en la noche del martes 20 al miércoles 21 de febrero, ofreciendo a las preguntas de los usuarios respuestas sin sentido, evidenciando que estos sistemas aún están en desarrollo.

OpenAI, la startup detrás del programa lanzado a finales de 2022, informó en su sitio web el miércoles 21 de febrero que ChatGPT había vuelto a su funcionamiento “normal”. La compañía aclaró ese mismo día que una “optimización de la experiencia de usuario” había “introducido un error en el procesamiento del lenguaje por parte del modelo”.

Generalmente de impresionante calidad.

El miércoles por la noche, anunciaron que estaban “revisando reportes de respuestas inesperadas de ChatGPT”. Minutos después, la prominente empresa de Silicon Valley aseguró haber “identificado el problema” y que “estaba en proceso de solución”.

Numerosos usuarios compartieron capturas de pantalla demostrando las respuestas erráticas o incomprensibles del modelo de IA generativa. Esta tecnología de punta permite generar diversos contenidos (textos, sonidos, vídeos), usualmente con una calidad sorprendente, a partir de solicitudes en lenguaje coloquial. La semana pasada, OpenAI presentó Sora, su software para crear vídeos a partir de texto sencillo.

En el foro para desarrolladores que usan herramientas de OpenAI, un usuario identificado como “IYAnepo” destacó el comportamiento “extraño” de ChatGPT.

“Genera palabras completamente inexistentes, omite palabras y produce secuencias de pequeñas palabras clave ininteligibles, entre otras anomalías”, señaló. “Podría pensarse que di tales instrucciones, pero no es el caso. Me siento como si mi GPT estuviera hechizado (…)”

Sin conciencia ni entendimiento

Otro usuario, “scott.eskridge”, expresó en este mismo foro que todas sus interacciones con el modelo lingüístico “se han degenerado en absurdos durante las últimas tres horas”.

Compartió un fragmento de una respuesta de la interfaz: “Dinero para el bit y la lista es uno de los extraños e Internet donde la moneda y la persona del costo es uno de los amigos y la moneda. La próxima vez que mires el sistema, el intercambio y el hecho, no olvides dar.”

El experto en inteligencia artificial Gary Marcus espera que este incidente sirva de “advertencia”.

“Estos sistemas nunca han sido estables. Nadie ha conseguido desarrollar garantías de seguridad alrededor de estos sistemas”, escribió en su boletín justo después del incidente. “La necesidad de tecnologías completamente distintas que sean menos opacas, más interpretables, más fáciles de mantener y depurar -y, por ende, más fáciles de implementar- sigue siendo esencial”, agregó.

BLOG