Lo que se esconde detrás de la palabra ‘Prompt’ y las solicitudes realizadas a ChatGPT
¿Cómo comunicarse con la inteligencia artificial? Desde el lanzamiento de ChatGPT, que supuestamente ha conquistado a más de 100 millones de usuarios en pocos meses, esta cuestión ha intrigado a numerosos expertos y aficionados, todos deseosos de aprovechar al máximo las posibilidades que promete la máquina.
Aparece entonces el término “prompt” para designar la solicitud dirigida a una IA generativa. Desde el inglés “prompt”, que significa alentar, liderar, animar a la gente a decir algo, un prompt es el inicio de un texto, una pregunta o una situación planteada a la máquina en lenguaje natural para que genere una respuesta. Un buen prompt permitiría a la máquina producir cualquier tipo de contenido textual, gráfico, sonoro… Esta visión ha originado muchos temores, en parte legítimos, por parte del mundo de la cultura o de los medios de comunicación, por ejemplo.
Un prompt puede ser una simple petición (una pregunta o una frase, como “Explique las elecciones presidenciales”), o una situación más compleja (por ejemplo, “Imagínese que usted es miembro del Consejo Constitucional en Francia y busca explicar, durante una conferencia ante estudiantes de maestría en derecho, qué es la elección presidencial, incluyendo su origen, papel, importancia y amenazas actuales”). Un prompt también puede entenderse como una discusión completa destinada a guiar al modelo.
Detrás de esta aparente discusión, la respuesta a un prompt es estadística: el modelo de IA generativa predice cuál podría ser la respuesta más plausible basándose en su base de entrenamiento y la genera. Esta característica ha inspirado críticas, dirigidas en particular por la investigadora Emily Bender a los predecesores de ChatGPT, que entonces no serían más que “loros estocásticos”. Aunque en realidad estos sistemas no reproducen frases enteras sino que parafrasean, concatenan, reformulan para producir un texto original.
Este enfoque estadístico provoca entonces una estandarización del contenido producido por la máquina y, por extensión, por los humanos que colaboran con la máquina para producir un libro, una imagen o una película. Daniel Andler utiliza la figura del cortesano que busca complacer a su amo para describir tales sistemas.
¿Saber cómo dar un prompt garantiza una respuesta confiable? En realidad, sin comprender realmente de qué hablan, los modelos son capaces de producir resultados aberrantes. Al no tener conciencia, comprensión ni otros límites que los inducidos por los datos del conjunto de entrenamiento o los establecidos manualmente, ChatGPT y otros producen de todo. Y, por tanto, plantean graves problemas en cuanto a la multiplicación y facilitación de la generación de noticias falsas, deepfakes, discursos de odio… aunque los individuos confíen más en un texto, una imagen o una voz que parezcan “humanos”.
Pase lo que pase, el entusiasmo en torno a los diferentes servicios parece haber convertido el prompting en una habilidad en sí misma. Dado que el ejercicio a veces puede resultar contraproducente, se dedica más tiempo a reelaborar el prompt que el que hubiera sido necesario para producir el mismo contenido por uno mismo. Entonces hablamos de “prompt engineering” por parte de los autoproclamados “prompt engineers”, descritos como “susurradores de IA”. También se habla de “prompt design” para designar la habilidad (menos técnica que el prompt engineering) para gestionar el tono, el estilo, los elementos del lenguaje, etc.
¿Es difícil hacer una pregunta?
Aunque consultar a la máquina puede parecer complicado y, a veces, contradictorio, en realidad solo los expertos en campos específicos pueden juzgar la verdadera relevancia de la respuesta dada a un mensaje. Podemos apostar que la capacidad de formular preguntas será similar a la habilidad actual de realizar una búsqueda de manera eficiente en un motor de búsqueda.
La ciencia del “prompting” surge, pues, en parte de una ilusión: la de poder controlar correctamente un modelo con varios miles de parámetros. Sin embargo, los modelos de inteligencia artificial generativa funcionan como “cajas negras”: cuando introducimos un mensaje, no podemos estar seguros de lo que la máquina nos devolverá. Esta característica tiene entonces una implicación directa en el valor de verdad que se puede atribuir a la máquina. Alucinaciones, sesgos en los datos, desinformación, deriva conceptual… Aunque los modelos de IA generativa pueden ofrecer una ayuda interesante en el contexto del trabajo creativo, de ninguna manera pueden servir como garantía de verdad.
BLOG
El uso indebido de ChatGPT perjudica el rendimiento académico y provoca pérdida de memoria
El uso generalizado de inteligencia artificial generativa, como ChatGPT, en el ámbito académico está generando preocupación creciente entre investigadores y educadores. Aunque muchos estudiantes consideran esta tecnología una solución rápida...
ChatGPT: La IA es más humana que algunos estudiantes, según demuestra este sorprendente estudio
Cuando se evalúan las capacidades de grandes modelos de lenguaje como ChatGPT, la mayoría de los estudios se centran en su habilidad para extraer información fáctica, ejecutar razonamientos lógicos o...
ChatGPT dice cualquier cosa sobre los internautas y es atacado
Se avecinan nuevos problemas para OpenAI, la empresa detrás de ChatGPT. El activista austriaco Max Schrems, conocido por su activismo contra los gigantes de internet en cuestiones de datos personales,...
La doble amenaza que ChatGPT representa para los secretos corporativos
Una vez que aprenden a usarlo, cada vez más empleados están utilizando ChatGPT para simplificar sus tareas, como responder correos electrónicos, preparar presentaciones o codificar software. Según Cyberhaven, una empresa...
ChatGPT presenta una nueva característica interesante… de la cual Europa se ve privada
ChatGPT finalmente incorporará la función de “memoria”. Esta característica, útil para recordar detalles sobre usted, lamentablemente no estará disponible en Europa. OpenAI lo anunció y ya es una realidad: ChatGPT...
Quejas sobre ‘ChatGPT’: la CNPD recuerda los principios básicos
La CNPD no tiene previsto pronunciarse sobre la decisión de la autoridad italiana respecto al uso de ChatGPT. A medida que las quejas aumentan, señala que correspondería al regulador irlandés...