Hume EVI: IA ChatGPT empática que detecta tus emociones! ¿Cómo puedes probarla?

Hume EVI es el primer chatbot de inteligencia artificial capaz de detectar tus emociones y de reaccionar cambiando su tono y sus comentarios. ¡Descubre todo lo que necesitas saber sobre esta herramienta que marca un hito en la evolución de la IA, cuáles son los posibles casos de uso y cómo puedes probarla ahora mismo!

Recientemente te hablamos en este artículo: la IA ahora es capaz de detectar nuestras emociones y reaccionar. Este es el caso del nuevo chatbot EVI, que te invitamos a descubrir más detalladamente en este informe completo.

Desarrollado por la startup Hume, fundada por el exinvestigador de Google DeepMind, Alan Cowen, EVI es un asistente de voz basado en un LLM (modelo de lenguaje grande) similar al OpenAI GPT.

Sin embargo, el objetivo que se ha fijado Hume es aportar empatía e inteligencia emocional al ámbito de los chatbots de IA.

Así, tras una recaudación de fondos de 50 millones de dólares de empresas como Comcast Ventures o LG, la compañía con sede en Nueva York acaba de revelar su producto estrella: EVI (Interfaz Vocal Empática), el primer bot tipo ChatGPT capaz de monitorear, predecir y adaptarse a tu estado de ánimo.

¿Qué es Hume EVI?

La Interfaz Vocal Empática (EVI) se diferencia de otros chatbots ya que las interacciones no son textuales como con ChatGPT.

En su lugar, puedes hablarle usando tu voz. Ella responderá a cambio con su propia voz sintética.

Al igual que OpenAI con ChatGPT-Voice y el robot, Hume ha asegurado que su robot hable de manera más natural y emotiva gracias a pausas y entonaciones.

Pero eso no es todo: la startup ha diseñado al robot para que responda, refleje o contrarreste el tono emocional de su interlocutor humano.

Esta IA de nueva generación es capaz de adoptar un tono similar al de los humanos basándose en tus expresiones y de reaccionar con un lenguaje que responda a tus necesidades para maximizar tu satisfacción.

También decide cuándo hablar en función del tono de tu voz, haciendo que las conversaciones sean mucho más naturales que con otros chatbots existentes.

A diferencia de los asistentes de voz tradicionales, su inteligencia emocional le permite discernir las sutilezas del discurso humano y adaptar sus respuestas en consecuencia.

¿Cómo funciona? ¿Cuáles son sus capacidades?

Entrenada con millones de conversaciones humanas, EVI comprende y genera un discurso expresivo. Varias capacidades la hacen empática y la distinguen de otras IA.

Primero, puede emplear un tono que imita la expresión humana para enriquecer la experiencia conversacional. También adapta su lenguaje según el usuario, respondiendo eficazmente a sus necesidades.

Dependiendo del tono del usuario, detecta el curso que toma la conversación para interacciones muy fluidas. En caso de interrupción, se detiene, pero puede continuar donde lo dejó.

Mejor aún: EVI aprende de las reacciones del usuario para mejorar continuamente y aumentar la satisfacción del usuario con el tiempo.

Además de estas funcionalidades empáticas, esta IA ofrece capacidades de traducción y de conversión de texto a voz confiables y rápidas. Esto la hace adaptable a diversas situaciones, ya que se integra con cualquier LLM.

¿Una IA emotiva? ¿Para qué?

Según Alan Cowen, CEO y científico jefe de Hume, es imperativo que la IA sea empática si queremos usarla de manera que mejore el bienestar humano.

Estima que la principal limitación de los sistemas actuales es que están guiados por instrucciones superficiales, propensas a errores y que no permiten explotar plenamente su vasto potencial.

Su equipo, por lo tanto, ha creado una IA que aprende directamente de los indicadores de felicidad humana. Estos datos han sido utilizados para su entrenamiento, junto con los conjuntos de datos generalmente utilizados para otras IA multimodales.

Así, EVI es capaz de reconstruir las preferencias humanas y actualizar su conocimiento para cada nueva persona con la que interactúa y cada aplicación en la que se integra.

Por su parte, Cowen está convencido de que las interfaces de voz se convertirán muy pronto en la forma predeterminada en que interactuamos con la IA. No es de extrañar, dado que hablamos cuatro veces más rápido de lo que escribimos en un teclado.

Este enfoque también libera ojos y manos y transmite más información a través del tono, ritmo o timbre de la voz.

¿Cuáles son las posibles aplicaciones para el futuro?

En el futuro, esta IA podría ser utilizada, por ejemplo, por centros de llamadas para responder con empatía y comprensión al enfado de los clientes.

También podría detectar signos tempranos de angustia emocional o trastornos mentales en individuos y ofrecerles consejos, recursos de ayuda o incluso alertar a profesionales cuando sea necesario.

En el ámbito de la formación o del coaching profesional, la IA empática podría analizar las reacciones emocionales de los alumnos o clientes y ajustar su enfoque para satisfacer mejor sus necesidades. Esto promovería un aprendizaje o desarrollo más efectivo.

Asimismo, se podría considerar cómo EVI puede ayudar a los profesores a comprender las emociones de los estudiantes en entornos educativos para ajustar sus métodos de enseñanza y fomentar el compromiso y el rendimiento académico.

Comprender las emociones también podría ser especialmente útil para mejorar la interacción entre humanos y robots en contextos de atención a personas mayores o discapacitadas.

Otro caso de uso podría ser el apoyo emocional a pacientes que padecen enfermedades crónicas, trastornos del estado de ánimo o problemas de salud mental.

En general, esta IA podría permitir humanizar aún más a los robots para que las interacciones sean más saludables y naturales. Sin embargo, también existe el temor de que anunciantes o políticos la aprovechen para manipularnos jugando con nuestras emociones…

¿Pronto una IA similar de OpenAI?

Aunque EVI ofrece un enfoque innovador, OpenAI presentó recientemente Voice Engine: una IA capaz de reconocer e imitar cualquier voz, procesar comandos de voz y convertir texto en voz hablada.

Puede generar voz y audio a partir de mensajes de texto, hablados o visuales. En una entrevista reciente con Bill Gates, el director ejecutivo Sam Altman destacó la importancia de la multimodalidad para la IA.

Además, GPT-5 también podrá generar video o audio además de texto. Esta IA también estará enfocada en la personalización y el conocimiento del usuario.

El año pasado, OpenAI lanzó un asistente de voz en la aplicación ChatGPT para Android e iOS para permitir a los usuarios entablar conversaciones habladas con IA.

Recientemente, la firma se asoció con Figure AI para incorporar ChatGPT en robots humanoides 01. En el video de demostración, el robot logra adoptar una voz natural gracias a sus entonaciones e interrupciones voluntarias…

¿Cómo probar EVI ahora?

Puedes comenzar a probar EVI ahora en el sitio web oficial hume.ai siguiendo este enlace. Permita el uso del micrófono si es necesario y comience a hablar.

La IA responderá y la pantalla mostrará visualmente su tono y estado emocional. En la medida de lo posible, evite revelar información sensible…

Además, EVI también estará disponible para que otras empresas lo utilicen en sus propios productos.

BLOG