Mejorando la capacidad de los ordenadores para captar las emociones humanas

En el campo cada vez más activo de la “computación afectiva”, se están desarrollando robots y ordenadores para analizar expresiones faciales, interpretar nuestras emociones y responder en función de ello. Entre las aplicaciones están, por ejemplo, monitorizar la salud mental y el bienestar de una persona, medir el interés de un estudiante en el aula, ayudar a diagnosticar señales de ciertas enfermedades, y desarrollar compañeros robots que nos ayuden.

Uno de los desafíos, sin embargo, es que los humanos expresamos las emociones de forma bastante diferente, dependiendo de muchos factores. Las diferencias generales pueden apreciarse entre culturas, géneros y grupos de edad. Pero otras diferencias aún son más finas: la hora del día, cuánto hemos dormido, o incluso nuestro nivel de familiaridad con la persona con quien conversamos llevan a sutiles variaciones en la forma en que nos expresamos.

Los cerebros humanos cazan de forma instintiva estas desviaciones, pero a las máquinas les cuesta mucho. Se desarrollaron hace pocos años técnicas de aprendizaje automático profundo para ayudar a captar estas sutilezas, pero todavía no son tan precisas o tan adaptables entre diferentes poblaciones como podrían llegar a serlo.

El equipo de Oggi Rudovic, Michael Feffer y Rosalind Picard, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha desarrollado un modelo de aprendizaje automático que supera a los sistemas tradicionales en la detección de estas pequeñas variaciones de expresión facial, logrando evaluar mejor el estado de ánimo en humanos mientras se le adiestra con miles de imágenes de rostros. Además, usando algunos datos más para entrenarlo, el modelo puede adaptarse para que analice a un grupo de personas completamente nuevo, con la misma eficacia.

Los modelos de computación afectiva tradicionales usan el concepto de “una misma talla para todo el mundo”. Se adiestran sobre un grupo de imágenes que muestran varias expresiones faciales, optimizando rasgos (como la forma en que un labio se mueve cuando el sujeto sonríe) y cartografiando esas optimizaciones de rasgos generales a lo largo de todo un grupo de nuevas imágenes.

Los autores del nuevo estudio, en cambio, combinan una técnica llamada MoE (“mixture of experts”, “mezcla de expertos”) con técnicas de personalización del modelo, que en los experimentos realizados ayudaron a extraer datos de expresión facial más finos, con resultados mucho mejores en la detección de las emociones que los alcanzados mediante otros sistemas. Hasta donde saben los investigadores, es la primera vez que estas dos clases de técnicas han sido combinadas para la computación afectiva.

Rudovic y sus colegas han logrado, en definitiva, un modelo de aprendizaje automático que acerca los ordenadores a interpretar nuestras emociones de un modo muy similar a como lo hacemos de forma natural los humanos. El modelo capta mejor las variaciones sutiles de la expresión facial y gracias a ello mide mejor los estados de ánimo.

Foto: El nuevo modelo de aprendizaje automático permite a los ordenadores interpretar las emociones humanas de una manera muy similar a como lo hace una persona de carne y hueso. Usando datos de adiestramiento adicionales, el modelo puede también ser adaptado para un grupo de personas completamente nuevo, con la misma eficacia.(Imagen: MIT)

Fuente: http://noticiasdelaciencia.com/not/29533/mejorando-la-capacidad-de-los-ordenadores-para-captar-las-emociones-humanas/