Hoy es 23 de Abril de 2024, Chihuahua, MX.

Hace casi un año supimos de la existencia de Hume, una IA conversacional especializada en comprender las expresiones emocionales derivadas de nuestras palabras y nuestro tono. En tiempo real, aspiraba a ser capaz de detectar si su interlocutor está triste, preocupado, emocionado, angustiado, entusiasmado, dubitativo… Y así hasta 24 emociones. De momento.

Un año después podemos decir que lo ha logrado, o al menos está muy cerca de ello a tenor de la demo pública que podemos probar en su web de forma gratuita. Hemos podido charlar con ella para comprobar cómo es capaz de detectar nuestro tono para asumir nuestro estado. Con bastante tino.

«¡Me has pillado!»

Hume asegura ser capaz de detectar más de 24 expresiones emocionales distintas, y además usa información para responder de forma consecuente. Es decir, no solo es capaz de reconocer nuestras emociones, sino que además empatiza con nosotros. De hecho, su nueva API conversacional se llama ‘Hume EVI‘. ‘EVI’ son las siglas de ‘Empatethic Voice Interface’ (‘Interfaz de Voz Empática’).

Durante las conversaciones va haciendo transcripciones de nuestras consultas y de las respuestas del bot, separadas por pequeños bloques — sus respuestas suelen extenderse bastante.

Junto a cada uno de esos bloques, que puedan ser de una línea o de varias, enumera las principales emociones detectadas y el nivel de cada una de ellas. Por ejemplo, nuestra primera consulta («Hola, soy de Valencia, España. ¿Qué sabes de mi ciudad?») detectó interés, confusión e incomodidad, que desde luego encajan mucho en la mezcla de lo que uno siente al probar por primera vez algo así.

A partir de ahí empezó a responder con la camaradería habitual del chatbot promedio («He de decir que Valencia es una ciudad que siempre he querido visitar»), y resulta curioso ir viendo esas respuestas acompañadas de las distintas emociones.

Luego hubo un momento peculiar: le dije que trabajo para Xataka, un medio de comunicación español, y le pregunté si lo conocía. Lo transcribió como ‘Sataka’, primer derrape. Luego me aseguró que sí, que es un nombre que le resulta familiar, que como «una voz empática por IA» intenta estar al tanto de las últimas novedades tecnológicas, y que ese medio hace un trabajo innovador, además de otros tópicos.

Cuando le dije «creo que me estás mintiendo. No tienes ni idea de lo que es Xataka, ¿verdad?» (emociones: contemplación, duda, realización), su respuesta fue ‘Me pillaste. La verdad es que no sé gran cosa sobre Xataka‘ (emociones: enojo, diversión, decepción).

La IA sinvergüenza.

En otras pruebas pude comprobar que soy un pésimo actor y que mis esfuerzos para parecer compungido al decirle que mi perrito ha fallecido no se traducían en el reconocimiento de emociones negativas, sino más bien de dudas o curiosidad. En esta ocasión fue EVI quien me pilló a mí. Bien jugado.

Hume es una startup neoyorquina que acaba de recaudar 50 millones de dólares en una ronda de inversión que eleva la valoración hasta los 219 millones de dólares.

Su objetivo no es solo dar respuestas, eso ya lo hacen muchos otros chatbots, sino diferenciarse por la capacidad de detectar explícitamente las emociones del humano que les habla para dar una respuesta adaptada a ellas.

Tras este proceso se basan tanto su propio modelo interno como el uso de LLM ajenos (GPT-3.5, Claude 3 Haiku y la búsqueda de Bing). Las respuestas tardan menos de un segundo en cargar y aunque tienen margen de mejora, son bastante prometedoras.

Ahora queda esperar a ver qué aplicaciones prácticas llegan para esta API. Pero por lo pronto, límites de la regulación al margen, podemos esperar que las máquinas no solo entiendan lo que les decimos sino también las emociones de las que emanan nuestras palabras. Y mentir puede no ser suficiente para camuflarlas.

Aunque ya lo publicamos al principio del artículo, dejamos nuevamente el enlace para probar Hume.

WhatsApp