Apple y Google compiten en la carrera de la inteligencia artificial… ¿para contrarrestar mejor el ChatGPT?

Apple y Google están librando una encarnizada batalla en el ámbito de la inteligencia artificial local (IA en el dispositivo). Su objetivo es permitir que sus respectivos asistentes virtuales, Siri y Google Assistant, operen de manera más eficiente y segura directamente en los dispositivos de los usuarios, sin depender de servidores en la nube.

Probablemente no sea una novedad decir que la inteligencia artificial ha estado en el centro de las últimas innovaciones tecnológicas desde hace varios meses. Tanto es así que todos los fabricantes de dispositivos se han sentido obligados a subirse al tren de la IA lo más rápido posible por miedo a quedarse atrás. Samsung inició esta tendencia hace unas semanas con su Galaxy S24. En cuanto a Apple y Google con su proyecto Gemini, evidentemente no se quedan atrás. Los rumores también sugieren una colaboración entre estos dos gigantes para integrar la IA en el próximo iPhone 16.

Sin embargo, hasta ahora, Apple es el único gigante que no ha presentado nada realmente concreto. No obstante, según rumores recientes, la compañía está trabajando en un modelo de lenguaje grande (LLM) llamado ReALM, que significa “Reference Resolution As Language Modeling”. Este modelo, que se presenta en cuatro variantes, pretende mejorar significativamente las capacidades de Siri, en particular su comprensión del contexto en una conversación y su procesamiento de los contenidos mostrados en pantalla.

Los investigadores de Apple han comparado el rendimiento de ReALM con el de GPT-3.5 y GPT-4 de OpenAI. Incluso la versión más pequeña, ReALM-80M, es hasta un 5% más eficiente que GPT-4 en el procesamiento de la información mostrada en pantalla. Además, ReALM está diseñado para funcionar directamente en el dispositivo, garantizando interacciones más rápidas, privadas y seguras con Siri.

El enfoque modular de ReALM facilita su integración con los componentes existentes de detección de entidades y ejecución de tareas, a diferencia de un modelo de un extremo a otro como GPT-4. Esto hace que ReALM sea más práctico para adoptar en sistemas asistentes de IA del mundo real. Sin embargo, la conversión de diseños de pantalla 2D en representaciones de texto 1D resulta en la pérdida de algunos detalles espaciales, lo cual es una limitación actual.

Google apuesta por MediaPipe para la IA en el dispositivo

Por su parte, Google ha sido pionero en IA local con proyectos como el aprendizaje federado, que permite entrenar modelos sobre datos de usuarios sin enviar información sensible a la nube. MediaPipe, un marco de código abierto para la creación de canales de IA multiplataforma, es una parte clave de la estrategia de IA en dispositivos de Google.

Hasta ahora, ejecutar modelos de lenguaje grandes como los que impulsan ChatGPT en dispositivos ha sido un desafío por su enorme tamaño y requisitos computacionales. La mayoría de la IA en el dispositivo se ha centrado en modelos más pequeños para tareas específicas, como clasificación de imágenes o predicción de texto.

Sin embargo, la nueva demostración de MediaPipe de Google muestra que se han realizado optimizaciones para permitir que modelos de lenguaje más grandes, como Gemma, Phi 2, Falcon y Stable LM, se ejecuten completamente en dispositivos. Este es un avance significativo, que requiere mejoras en cuantificación, almacenamiento en caché, distribución de peso y nuevas operaciones.

Si Google logra llevar esta tecnología a producción con éxito, permitiría que los teléfonos inteligentes y Chromebooks con Android ejecuten potentes modelos de inteligencia artificial de lenguaje natural localmente, ofreciendo experiencias de usuario más eficientes y con mayor capacidad de respuesta. Esto podría darle a Google una ventaja sobre la IA centrada en la nube como OpenAI y situar al gigante de Mountain View a la par con el enfoque ReALM de Apple.

¿Son las IA locales el futuro?

Aunque Apple y Google han alcanzado avances significativos en el campo de la IA en dispositivos, los desafíos continúan. En particular, es necesario comprimir aún más los modelos, ampliar el soporte de plataformas, asegurar un desarrollo responsable de la IA en los dispositivos y convencer a los desarrolladores de que adopten nuevos flujos de trabajo. Sin embargo, las experiencias de Google y Apple apuntan hacia un cambio de paradigma hacia dispositivos cada vez más inteligentes, ya que operan con IA local. Si estos gigantes tecnológicos consiguen materializar sus avances, podrían transformar radicalmente la manera en que interactuamos con nuestros dispositivos cotidianamente.

BLOG