ChatGPT y las “inteligencias” artificiales: cómo detectar la verdad de la falsedad

Auténtica sensación del inicio de 2023, el sistema interactivo ChatGPT ha suscitado una ola de entusiasmo, seguido de interrogantes y preocupaciones. En muy poco tiempo, ha reunido a un millón de usuarios y ha sido probado en numerosas tareas, principalmente textuales: solicitudes de información, ensayos, generación de ficciones, programación informática, traducción de textos, composición de poemas…

Una de las razones de esta popularidad es que ChatGPT ha demostrado capacidades impresionantes en muchos campos, así como habilidades emergentes, por ejemplo, la generación de código informático y la generación “multimodal”. Otra razón es que su interfaz de diálogo permite a los usuarios interactuar con un gran modelo de lenguaje subyacente, GPT3.5, de manera más eficaz y eficiente que antes, mediante chats interactivos.

Estos resultados han llevado a preguntarse si se podrían utilizar estos grandes sistemas de lenguaje con fines profesionales, documentales, educativos o incluso artísticos. Es posible que este tipo de sistemas transforme ciertas profesiones y tenga un impacto profundo en la enseñanza y la educación, siendo los niños particularmente vulnerables frente a estos sistemas.

Una “inteligencia”… solo en apariencia

ChatGPT produce textos casi perfectos desde un punto de vista gramatical aunque no tenga ninguna comprensión de lo que produce. Posee capacidades realmente asombrosas y algunos casos mostrados como ejemplos son notables. Sus textos, a menudo complejos, pueden asemejarse a los datos originales utilizados para el aprendizaje y poseer algunas de sus características.

Pero con la apariencia de lo verdadero, estos resultados pueden ser a veces totalmente falsos. ¿Cuál es la naturaleza y el estatus de estas palabras artificiales sin razonamiento asociado? La comprensión del lenguaje natural implica razonamientos complejos y variados, espaciales, temporales, ontológicos, aritméticos, basados en conocimientos y que permiten conectar objetos y acciones en el mundo real, lo cual está lejos de ser integrado por ChatGPT al no tener ninguna percepción fenomenal.

Si algunos ejemplos seleccionados pueden sugerir que los modelos de lenguaje son capaces de razonar, en realidad no son capaces de ningún razonamiento lógico y no tienen intuición, pensamiento ni emociones. ChatGPT se expresa con soltura en buen francés como en otros idiomas después de haber absorbido miles de millones de datos, pero no entiende nada de lo que dice y puede muy fácilmente generar fake news, discriminaciones, injusticias y amplificar la guerra de información.

Cómo discernir lo verdadero de lo falso: de las tecnologías a la educación

Sin embargo, estos enfoques poco transparentes pueden evaluarse bajo muchos aspectos sobre datos existentes (son benchmarks) para mostrar la falta de rendimiento de los sistemas en problemas de razonamiento lógico como la deducción, la inducción o la abducción, o incluso el sentido común.

La educación puede abordar este tema para mostrar los límites de este lenguaje artificial desencarnado, y trabajar con los estudiantes en una mejor comprensión de los conceptos de modelado numérico, aprendizaje automático e inteligencia artificial.

Los niños son más susceptibles ante la IA

Esto es particularmente relevante ya que los niños tienden a ser especialmente susceptibles a los sistemas habilitados para el habla como ChatGPT.

Richard Thaler, estadounidense y premio Nobel de Economía en 2008, introdujo el concepto de “nudge”, una técnica que busca incentivar a las personas a modificar su comportamiento sin coaccionarlas, aprovechando sus sesgos cognitivos.

Además, hemos demostrado que los niños pequeños tienden a seguir las recomendaciones de sistemas de diálogo integrados en objetos (como Google Home o un robot) más que las sugerencias de los humanos. Nuestra investigación se enfocó en un juego sobre el altruismo y se realizó bajo el auspicio de la cátedra de IA Humaine (de Interacción Afectiva y Ética Humano-Máquina) sobre impulsos digitales potenciados por la IA. Esta cátedra interdisciplinaria, que funciona como un laboratorio para el estudio de la interacción humano-máquina, reúne a investigadores en ciencias de la computación, lingüística y economía del comportamiento.

Los agentes conversacionales como ChatGPT podrían llegar a ser una herramienta para influenciar a las personas. En la actualidad, no están regulados ni evaluados y resultan muy opacos. Por ello, es crucial entender cómo funcionan y sus limitaciones antes de su uso, y en este contexto, la educación juega un rol fundamental.

¿Qué hace a ChatGPT tan poderoso?

ChatGPT es un sistema interactivo multilingüe y multitarea que utiliza IA generativa y está disponible de forma gratuita en Internet. Los sistemas de IA generativa se fundamentan en algoritmos capaces de procesar enormes cantidades de datos (textos, poemas, programas informáticos, símbolos) y generar textos sintácticamente correctos para una amplia gama de tareas.

Los transformadores son uno de estos tipos de algoritmos, redes neuronales que aprenden las regularidades más destacadas de las palabras en una gran variedad de contextos y, por lo tanto, pueden predecir la palabra o secuencia que probablemente sea relevante en el resto de un texto específico.

ChatGPT es el sucesor del modelo de lenguaje grande (LLM) InstructGPT, al que se le ha añadido una interfaz de diálogo. InstructGPT ofrece mejores resultados que los enfoques previos: de hecho, los desarrolladores han logrado que la IA generativa (como GPT3.5) se alinee mejor con la intención del usuario en un amplio espectro de tareas, mediante el uso de “aprendizaje por refuerzo”, es decir, la IA también aprende de las retroalimentaciones que los humanos proporcionan sobre sus textos.

Aumentar el tamaño de los modelos de lenguaje no los hace inherentemente mejores para seguir la intención del usuario. Estos grandes modelos de lenguaje pueden generar resultados engañosos, tóxicos o simplemente inútiles para el usuario porque no están alineados con sus intenciones.

Sin embargo, los resultados indican que el ajuste mediante la retroalimentación humana es una vía prometedora para alinear los modelos de lenguaje con la intención humana, incluso si InstructGPT todavía comete errores simples.

Por lo tanto, el rendimiento tecnológico de ChatGPT proviene del tamaño de la IA generativa que utiliza “transformadores” (175 mil millones de parámetros), de la alineación de las respuestas de la IA a través del aprendizaje reforzado y también de la capacidad de dialogar con este sistema.

El impacto de ChatGPT en el mercado de búsqueda de información

ChatGPT, de Microsoft-OpenAI, representa una amenaza para el modelo de consulta de Google por su capacidad de búsqueda y producción. Google ha posicionado a Bard como un motor de búsqueda interactivo más reflexivo y preciso, el cual no se encuentra afectado por los problemas actuales que enfrenta ChatGPT, ya que se entrenó con datos disponibles antes de septiembre de 2021 y, por ende, no está al tanto de las noticias más recientes (por ahora).

La compañía china Baidu también está trabajando en un proyecto de IA generativa con Ernie Bot. El proyecto “BigScience”, llevado a cabo por HuggingFace y financiado por el CNRS y el Ministerio de Investigación, ha dado lugar a “Bloom”, una IA generativa que utiliza un modelo lingüístico de 176 mil millones de parámetros entrenados con datos multitarea multilingües y, especialmente, en “ciencia abierta”. Este proyecto innovador es una cooperación entre el sector público y privado, y ha contado con la participación de más de mil investigadores de varios países. Esto podría derivar en un “ChatBloom”.

Cuestiones éticas

El contexto actual, marcado por los avances y aplicaciones ampliamente difundidos de estos sistemas, cuyo impacto masivo exige una reflexión ética.

Estas IA generativas, multilingües, multitarea e interactivas, generan numerosas preguntas: los datos seleccionados para su entrenamiento, la distribución de lenguajes en un sistema multilingüe, los parámetros de optimización del sistema, la propiedad del contenido generado, entre otros.

Además, la capacidad generativa de la IA a menudo se ve reforzada por filtros que permiten censurar ciertos temas y módulos de deducción lógica para comprobar la veracidad de las afirmaciones. Un grupo reducido de humanos (ingenieros, transcriptores, evaluadores) ha creado este tipo de sistema que es utilizado por millones de personas.

Por lo tanto, estos sistemas de inteligencia artificial de uso masivo plantean importantes desafíos éticos, incluyendo la transformación de la noción de producción de información, la relación con la verdad y los enormes riesgos relacionados con la desinformación y la manipulación.

BLOG