Mario Gómez – Emotion Research Lab

Mario Gómez Martínez, psicólogo con un máster en Data Science y un doctorado en Inteligencia Artificial, es responsable de desarrollo de IA en Emotion Research Lab, empresa pionera en reconocimiento de emociones.

David – Hola Mario, ¿nos puedes explicar a qué te dedicas?

Mario – Ahora mismo estoy trabajando en Emotion Research Lab. Esta empresa se dedica a crear aplicaciones para diferentes tareas relacionadas con el análisis emocional mediante técnicas de inteligencia artificial. De momento trabajamos con imágenes de vídeo, aunque planeamos ampliar la información a otras modalidades, como la voz. Yo en particular estoy trabajando en el desarrollo de los modelos de inteligencia articial encargados de analizar la información y crear un “perfil emocional”.

Nuestro software mide cosas como las emociones básicas (alegría, tristeza, miedo, sorpresa, enfado, asco), las emociones secundarias, o el nivel de activación emocional (la intensidad de las emociones). Las aplicaciones del software que desarrollamos abarcan desde el neuromarketing (estudios de mercado con información emocional) a la elaboración de informes para medios, agencias y otras compañías. Yo trabajo en el equipo de desarrollo y me encargo de crear modelos de inteligencia artificial (y más concretamente, modelos de “deep learning”) para el análisis de emociones a partir de la información audiovisual. Aunque también soy psicólogo, mis tareas son de análisis y desarrollo de algoritmos, pero en el equipo contamos también con otro psicólogo que se encarga de asesorarnos en el uso de modelos psicológicos de las emociones.

Emotion Research Lab

D – ¿Qué perfiles formativos complementarios consideras que pueden ser más útiles a la hora de diseñar un sistema de IA orientado a interactuar con personas a nivel emocional? A parte de los propios especialistas en Data Science e Inteligencia Artificial.

M – Posiblemente el perfil de psicólogo, o alguien conocedor de las teorías y modelos de la emoción humana, aunque no tengo nada claro cómo va a evolucionar este campo. Tradicionalmente el estudio de las emociones ha sido abordado por la la psicología, la cual ha generados diversas teorías de la emoción. Aunque existe un consenso generalizado sobre la importancia de las emociones y la llamada inteligencia emocional, sigue siendo un objeto de estudio esquivo, sin una teoría única o ampliamente aceptada.

Un segundo perfil sería el de experto en ética, encargado de supervisar el uso ético de las herramientas disponibles para evitar los abusos y proteger la intimidad y dignidad de las personas, las cuales van a ver amenazadas esas aŕeas de forma creciente debido a la hiperconectividad y la generación masiva de datos personales, los cuales habrá que gestionar con sumo cuidado. Aunque esta línea se relaciona con la protección de datos, creo que es una faceta complementaria.

Por último, y enlazando con el perfil anterior, encontramos a un perfil que ya existe, y cuya demanda vamos a ver aumentar notablemente durante los próximos años, me refiero al experto en el gobierno (o gobernanza) de los datos, entendido como la capacidad de una organización para gestionar sus datos asegurando su calidad a todos los niveles: disponibilidad, usabilidad, consistencia, integridad y seguridad. Siendo la información emocional altamente sensible, merece una especial protección, de ahí que las empresas que desarrollen o utilicen sistemas de IA que obtengan información emocional de sus usuarios, deberán ser especialmente cuidadosas con el almacenamiento y tratamiento de dichos datos.

Emotion Research Lab

D – ¿Cuáles te parecen los principales sesgos que pueden acabar viéndose reflejados al programar e implementar una Inteligencia Artificial? ¿Consideras que esto supone un riesgo real, o que puede tener un impacto significativo?

M – Sesgos relativos al sexo, la edad, la raza, el nivel socioeconómico… los mismos sesgos que aparecen en cualquier otra área que implique un juicio humano y por tanto están sujetos a la influencia de los prejuicios. El problema es que los datos usados para entrenar sistemas de

IA suelen estar sesgados, y por lo tanto los sistemas entrenados con esos datos reflejan ese sesgo. Los sesgos pueden tener dos orígenes muy distintos; por un lado, se produce un sesgo en la selección de los ejemplos de aprendizaje. Esto ocurre por ejemplo cuando se usan determinadas fuentes para obtener los datos, donde suelen ser más habituales ciertos perfiles demográficos. En general, ha venido ocurriendo que los perfiles más habituales eran personas de raza blanca, jóvenes o de mediana edad, y en ciertos casos con predominio de hombres. Dos ejemplos muy conocidos e ilustrativos de este problema son el caso de Google Photos reconociendo rostros afroamericanos como gorilas1, y las cámaras digitales Nikon advirtiendo a los usuarios asiáticos2. Estos sesgos pueden tener orígenes muy distintos, aunque el resultado final sea el mismo.

El tipo de sesgo más habitual, o al menos el más conocido y tratado es el sesgo de selección, que se produce durante el proceso de recolección de datos para generar un dataset de entrenamiento. Por ejemplo, más del 45% de las imágenes usadas en ImageNet, un dataset muy popular usado para entrenar sistemas de IA, proceden de los EEUU, lo cual introduce todo tipo de sesgos raciales y culturales. Por ejemplo, un atuendo de novia que sólo es reconocido como tal en el caso cuando se trata de vestidos blancos del estilo utilizado en ceremonias cristianas, pero falla por ejemplo para los vestidos hindúes. Aunque existen medios para paliar los sesgos de selección en los algoritmos de aprendizaje usados en los sistemas de IA, resulta complicado y repercute en la calidad de dichos algoritmos, por lo que la tendencia creciente para combatir estos sesgos es la creación de nuevos conjuntos de datos más balanceados.

Una segundo tipo de sesgo es el sesgo de etiquetado, pues se produce durante el etiquetado de los datos. Resulta que muchos de los datos usados para entrenar sistemas de IA son etiquetados por personas, a través de sistemas como Amazon Mechanical Turk, una plataforma de “crowdsourcing” que utiliza personas para realizar tareas sencillas y de bajo coste, pero que requieren un gran volumen, como el etiquetado de datos. En este caso el problema surge de la población de trabajadores usados como etiquetadores (a menudo conocidos como “turkers”) . Por un lado, los prejuicios y sesgos de dichos etiquetadores se verán reflejados en las etiquetas que asignen a los datos, y por otro lado, si dicha población está en si misma sesgada, ese sesgo se transmitirá al conjunto de sus etiquetados. El problema del sesgo se agrava y complica porque a menudo se utilizan modelos de IA para etiquetar nuevos conjuntos de datos, de forma que si el primer modelo se entrenó con unos datos sesgados, esos sesgos se transmitirán de un dataset a otro.

Emotion Research Lab

D – ¿Qué soluciones de Inteligencia Artificial orientadas a interactuar con personas a nivel emocional te parecen más prometedoras y con mayor potencial de impacto en un futuro próximo?

M – El abanico de posibilidades es considerable. Así es que voy a mencionar solo un par de líneas de investigación, innovación y desarrollo donde sé.

Un ejemplo de aplicación con muchos casos de uso posibles lo tenemos en los llamados chatbots. Un chatbot es un programa de ordenador con que interactúa con las personas mediante alguna forma de conversación. Aunque la comprensión y generación de lenguaje natural es un área realmente difícil para los sistemas de IA, se ha avanzado mucho últimamente en este campo. La introducción de un componente emocional en estos sistemas permitirá mantener conversaciones más naturales, que sean capaces de adaptarse al estado emocional de la persona, tal y como hacemos los humanos de forma totalmente natural. Lo más interesante de estos sistemas es que podrían ir aprendiendo con el tiempo, a medida que interactúan con nosotros. Como ejemplo concreto con un claro contenido emocional voy a mencionar a Woebot, un chatbot desarrollado en la Universidad de Stanford y orientado a la mejora anímica de sus usuarios mediante la automatización de técnicas de picoterapia cognitiva-conductual, el cual ha demostrado ser útil en la reducción de los síntomas de depresión.

Otro ejemplo son las herramientas de neuromarketing, que se basan en la aplicación de técnicas pertenecientes a las neurociencias en el ámbito de la mercadotecnia. Estas herramientas analizan los niveles de emoción, atención y memoria evocados por estímulos en contexto de marketing o publicidad, como son anuncios, productos o experiencias, con el objetivo de tener datos más precisos, o menos costosos, acerca de la reacción de los consumidores. Por ejemplo, algunas empresas han desarrollado herramientas capaces de analizar las imágenes procedentes de una videocámara para analizar las emociones de los sujetos mientras prueban un producto, lo cual ayuda a las empresas tomar decisiones para la mejora de sus productos y servicios.

1 El problema se reveló en 2015 en Tweeter. Curiosamente, la solución de Google parece que fue eliminar a los gorilas de los datasets usados para reconocer imágenes. Fuente: The Wired.

2 Se dio a conocer el Flickr en 2009. Fuente: The Society Pages.

Deja una respuesta