La nueva IA de Microsoft presenta una gran ventaja sobre ChatGPT

Gracias a su asociación con OpenAI, Microsoft tiene la oportunidad de aprovechar los modelos de esta empresa. Es por ello que el asistente Copilot de la firma de Redmond utiliza tecnologías GPT-4 y DALL-E 3, que normalmente son de pago en la aplicación ChatGPT. No obstante, pese a beneficiarse de esta colaboración con OpenAI, Microsoft no descarta a otros laboratorios de IA, como la startup francesa Mistral, con la cual colabora. Al mismo tiempo, Microsoft está desarrollando sus propias tecnologías.

Phi-3-mini, la nueva IA de Microsoft

Esta semana, Microsoft anunció un nuevo modelo de IA que, para ciertos usos, podría ser más interesante que los modelos de OpenAI como GPT-4 o GPT-3.5. Estas dos tecnologías, descritas como grandes modelos de lenguaje, solo operan en servidores en la nube y requieren una considerable potencia informática. Por su parte, el nuevo modelo de Microsoft se clasifica más bien como un “modelo de lenguaje pequeño”. La primera versión de este pequeño modelo de Microsoft, Phi-3-mini, opera con muy pocos recursos. Esto proporciona una gran ventaja, ya que la IA, al requerir menos recursos, reduce el coste operativo.

“Phi-3 no es un poco más barato, es significativamente más barato, estamos hablando de una diferencia de coste 10 veces mayor en comparación con otros modelos con capacidades similares”, dijo Sébastien Bubeck, vicepresidente de investigación GenAI de Microsoft, según Reuters. Microsoft también explica, en un artículo científico, que Phi-3-mini es un modelo de lenguaje con 3.800 millones de parámetros entrenados en 3,3 billones de tokens, cuyo rendimiento general (basado en mediciones académicas) rivaliza con el de modelos como Mixtral 8x7B y GPT-3.5.

Suficientemente pequeño para ejecutarse en un teléfono inteligente

El logro de Microsoft es haber creado un modelo en miniatura cuyo rendimiento puede competir con el de GPT-3.5, que es el modelo ofrecido por OpenAI a los usuarios de la versión gratuita de ChatGPT. Además del hecho de que usar Phi-3-mini ahorra dinero a las empresas, también es lo suficientemente pequeño como para ejecutarse localmente en un teléfono inteligente. Esta operación local permite que la IA funcione incluso sin conexión a Internet, responda más rápidamente a los usuarios y atienda las indicaciones sin enviar datos confidenciales a los servidores.

Según Reuters, Microsoft ofrece Phi-3-mini en el catálogo de inteligencia artificial de Azure, en la plataforma Hugging Face y en Ollama, una plataforma que permite ejecutar modelos de inteligencia artificial de forma local. Los modelos competidores de Phi-3-mini de Microsoft incluyen el Gemini Nano de Google, que también es lo suficientemente pequeño como para funcionar en un teléfono inteligente.

¿Hacia un enfoque similar para Apple?

Por otro lado, es importante mencionar que Apple podría adoptar un enfoque similar al de los desarrolladores de Phi-3-mini para llevar la inteligencia artificial generativa al iPhone. De hecho, según el último boletín de Mark Gurman, periodista de Bloomberg, todo indica que la compañía de Cupertino ofrecería, en iOS 18, un modelo de lenguaje que los iPhone podrán ejecutar localmente, sin la ayuda de servidores en la nube. Para Apple, este sería el enfoque más adecuado, ya que los datos confidenciales confiados a la IA no saldrían de los iPhone. Pero por ahora sigue siendo solo un rumor. Sin embargo, es muy probable que Apple haga grandes anuncios relacionados con la IA generativa durante su conferencia WWDC en junio.

Califica Esta Página

BLOG