Lo que se esconde detrás de la palabra ‘Prompt’ y las solicitudes realizadas a ChatGPT

¿Cómo comunicarse con la inteligencia artificial? Desde el lanzamiento de ChatGPT, que supuestamente ha conquistado a más de 100 millones de usuarios en pocos meses, esta cuestión ha intrigado a numerosos expertos y aficionados, todos deseosos de aprovechar al máximo las posibilidades que promete la máquina.

Aparece entonces el término “prompt” para designar la solicitud dirigida a una IA generativa. Desde el inglés “prompt”, que significa alentar, liderar, animar a la gente a decir algo, un prompt es el inicio de un texto, una pregunta o una situación planteada a la máquina en lenguaje natural para que genere una respuesta. Un buen prompt permitiría a la máquina producir cualquier tipo de contenido textual, gráfico, sonoro… Esta visión ha originado muchos temores, en parte legítimos, por parte del mundo de la cultura o de los medios de comunicación, por ejemplo.

Un prompt puede ser una simple petición (una pregunta o una frase, como “Explique las elecciones presidenciales”), o una situación más compleja (por ejemplo, “Imagínese que usted es miembro del Consejo Constitucional en Francia y busca explicar, durante una conferencia ante estudiantes de maestría en derecho, qué es la elección presidencial, incluyendo su origen, papel, importancia y amenazas actuales”). Un prompt también puede entenderse como una discusión completa destinada a guiar al modelo.

Detrás de esta aparente discusión, la respuesta a un prompt es estadística: el modelo de IA generativa predice cuál podría ser la respuesta más plausible basándose en su base de entrenamiento y la genera. Esta característica ha inspirado críticas, dirigidas en particular por la investigadora Emily Bender a los predecesores de ChatGPT, que entonces no serían más que “loros estocásticos”. Aunque en realidad estos sistemas no reproducen frases enteras sino que parafrasean, concatenan, reformulan para producir un texto original.

Este enfoque estadístico provoca entonces una estandarización del contenido producido por la máquina y, por extensión, por los humanos que colaboran con la máquina para producir un libro, una imagen o una película. Daniel Andler utiliza la figura del cortesano que busca complacer a su amo para describir tales sistemas.

¿Saber cómo dar un prompt garantiza una respuesta confiable? En realidad, sin comprender realmente de qué hablan, los modelos son capaces de producir resultados aberrantes. Al no tener conciencia, comprensión ni otros límites que los inducidos por los datos del conjunto de entrenamiento o los establecidos manualmente, ChatGPT y otros producen de todo. Y, por tanto, plantean graves problemas en cuanto a la multiplicación y facilitación de la generación de noticias falsas, deepfakes, discursos de odio… aunque los individuos confíen más en un texto, una imagen o una voz que parezcan “humanos”.

Pase lo que pase, el entusiasmo en torno a los diferentes servicios parece haber convertido el prompting en una habilidad en sí misma. Dado que el ejercicio a veces puede resultar contraproducente, se dedica más tiempo a reelaborar el prompt que el que hubiera sido necesario para producir el mismo contenido por uno mismo. Entonces hablamos de “prompt engineering” por parte de los autoproclamados “prompt engineers”, descritos como “susurradores de IA”. También se habla de “prompt design” para designar la habilidad (menos técnica que el prompt engineering) para gestionar el tono, el estilo, los elementos del lenguaje, etc.

¿Es difícil hacer una pregunta?

Aunque consultar a la máquina puede parecer complicado y, a veces, contradictorio, en realidad solo los expertos en campos específicos pueden juzgar la verdadera relevancia de la respuesta dada a un mensaje. Podemos apostar que la capacidad de formular preguntas será similar a la habilidad actual de realizar una búsqueda de manera eficiente en un motor de búsqueda.

La ciencia del “prompting” surge, pues, en parte de una ilusión: la de poder controlar correctamente un modelo con varios miles de parámetros. Sin embargo, los modelos de inteligencia artificial generativa funcionan como “cajas negras”: cuando introducimos un mensaje, no podemos estar seguros de lo que la máquina nos devolverá. Esta característica tiene entonces una implicación directa en el valor de verdad que se puede atribuir a la máquina. Alucinaciones, sesgos en los datos, desinformación, deriva conceptual… Aunque los modelos de IA generativa pueden ofrecer una ayuda interesante en el contexto del trabajo creativo, de ninguna manera pueden servir como garantía de verdad.

BLOG