Sentido y sensibilidad: ¿debería la IA dominar las emociones?

Examinamos el funcionamiento de las tecnologías de reconocimiento de emociones, su utilidad y los problemas de seguridad que suponen.

Por qué la IA está aprendiendo a reconocer las emociones humanas

Imagínate que un día llegas a casa de mal humor, gritas porque la puerta no se ha abierto con la suficiente rapidez y porque la bombilla se ha fundido; entonces, el altavoz inteligente comienza a reproducir música relajante y la cafetera te sirve un mocha. O, al entrar en una tienda, el asistente robótico que estaba a punto de acercarse a ti percibe tu cara de disgusto, retrocede y en su lugar atiende a otro cliente. Suena a ciencia ficción, ¿verdad?

Lo cierto es que las tecnologías de reconocimiento de emociones se están implementando ya en muchas áreas de la vida y en un futuro próximo nuestro estado de ánimo podría estar bajo la mirada atenta de nuestros dispositivos, electrodomésticos, automóviles, etc. En esta publicación, vamos a analizar el funcionamiento y la utilidad (aunque a veces pueden resultar peligrosas) de dichas tecnologías.

La inteligencia emocional artificial

La mayoría de los sistemas de reconocimiento de emociones analizan la voz y las expresiones faciales de un individuo, así como todas las palabras que expresa o escribe. Por ejemplo, si las comisuras de los labios apuntan hacia arriba, la máquina puede determinar que la persona está de buen humor, mientras que la nariz arrugada sugiere cabreo o disgusto. Un tono elevado, tembloroso y apresurado puede indicar miedo; mientras que, si alguien grita la palabra “¡salud!”, probablemente esté feliz.

Los sistemas más complejos también analizan los gestos e incluso tienen en cuenta el entorno, junto con las expresiones faciales y el habla. Dicho sistema reconoce que una persona que se ve forzada a sonreír a punta de pistola, probablemente no esté muy contenta.

Los sistemas de reconocimiento de emociones generalmente aprenden a establecer nexos entre una emoción y su manifestación externa a partir de grandes conjuntos de datos categorizados. Los datos pueden incluir grabaciones de audio o vídeo de programas televisivos, entrevistas y experimentos donde participa gente real; vídeos cortos de interpretaciones teatrales o películas y diálogos interpretados por actores profesionales.

Se puede educar a los sistemas más sencillos con conjuntos de fotos y textos, dependiendo del objetivo. Por ejemplo, este proyecto de Microsoft intenta adivinar las emociones de las personas, su género y sus edades aproximadas basándose en fotografías.

Reconocimiento de emociones, ¿para qué?

Gartner estima que en el 2022, uno de cada diez dispositivos contará con tecnología de reconocimiento de emociones. No obstante, algunas organizaciones ya la están utilizando. Por ejemplo, un robot amigable podría recibir a los clientes cuando llegan a la oficina, al banco o a un restaurante. A continuación, os dejamos algunas áreas en las que dichos sistemas podrían resultar beneficiosos.

Seguridad

El reconocimiento de emociones puede usarse para evitar la violencia, ya sea doméstica o de otro tipo. Varias publicaciones científicas han abordado este problema y los empresarios ya están comercializando dichos sistemas en escuelas y otras instituciones.

Contratación de personal

Algunas empresas despliegan una IA capaz de reconocer emociones como asistentes de Recursos Humanos. Los sistemas evalúan las palabras clave, la entonación y las expresiones faciales de los solicitantes en la fase inicial (y la más laboriosa) del proceso de selección y redactan un informe para las personas encargadas de la contratación sobre si el interés del candidato en la vacante es real, entre otras cosas.

Atención al cliente

La Secretaría de carreteras y transportes de Dubái lanzó un interesante sistema este año en sus centros de atención al cliente, equipado con cámaras de IA que comparaban las emociones de las personas cuando entraban o salían de un edificio, con el fin de medir el nivel de satisfacción. Si el valor calculado estaba por debajo de cierto nivel, el sistema aconsejaba a los empleados del centro adoptar medidas para mejorar la calidad del servicio (por cuestiones de privacidad, no se almacenaban las fotografías de los visitantes).

Integración social de niños con necesidades especiales

Otros proyectos tienen como objetivo ayudar a los niños autistas a interpretar las emociones de aquellos que los rodean. El sistema funciona mediante las gafas Google Glass. Cuando el niño interactúa con otra persona, las gafas utilizan gráficas y sonidos para dar pistas sobre sus emociones. Las pruebas han demostrado que los niños socializan más rápidamente con este asistente virtual.

¿Son eficaces los detectores de emociones?

Las tecnologías de reconocimiento de emociones no son perfectas. Un ejemplo es la tecnología de detección de agresiones implementada en muchas escuelas de los EE. UU. Resulta que el sistema considera que la tos es más alarmante que un grito desgarrador.

Los investigadores de la Universidad del Sur de California hallaron que también resulta fácil engañar a la tecnología de reconocimiento facial. La máquina asocia automáticamente ciertas expresiones faciales con emociones particulares, pero no puede diferenciar, por ejemplo, una sonrisa auténtica de otra de regodeo o malicia.

Propiamente dicho, los sistemas de reconocimiento de emociones que tienen en cuenta el contexto son los más exactos. Pero son más complejos y escasos.

No solo es importante lo que la máquina está viendo, sino también saber qué formación ha recibido. Por ejemplo, un sistema formado con emociones actuadas tendrá dificultades a la hora de reconocer las verdaderas.

Las emociones como datos personales

La difusión de las tecnologías de reconocimiento de emociones plantea otro problema importante. Sin importar su eficacia, dichos sistemas invaden el espacio personal de la gente. Piensa, por ejemplo, en la siguiente situación: te gusta el atuendo de un transeúnte al azar y, antes de que te des cuenta, te ves bombardeado de anuncios de ropa de la misma marca. O haces un gesto de desaprobación durante una junta y, como resultado, no se te considera para un ascenso.

Según Gartner, más de la mitad de los habitantes de los EE. UU. y el Reino Unido no desean que la IA interprete sus sentimientos y estados de ánimo. Mientras que, en algunos lugares, las tecnologías de reconocimiento facial y de emociones son ilegales. En octubre, por ejemplo, California presentó una ley que prohibía a los policías grabar, recopilar y analizar información biométrica mediante las cámaras que implantan en sus uniformes, incluyendo expresiones faciales y gestos.

De acuerdo con los redactores de la propuesta de ley, el uso de la tecnología de reconocimiento facial equivale a exigirle a los transeúntes que muestren su pasaporte cada segundo. Esto viola los derechos del ciudadano, lo que puede provocar que la gente que ha cometido faltas menores, como no haber pagado sus multas de estacionamiento, sea más reacia a informar a la policía de crímenes más graves.

Ausencia de emociones artificial

El problema de la privacidad es tan grave que incluso la forma de engañar a los detectores de emociones se ha convertido en un tema de investigación científica. Por ejemplo, en el Imperial College London han desarrollado una tecnología de protección de la privacidad que elimina las emociones de la voz humana. El resultado es un asistente de voz equipado con tecnología reconocimiento de emociones que puede entender el significado de lo dicho, pero no interpretar el estado de ánimo de quien habla.

Poner barreras a la IA seguramente complicará el desarrollo de la empatía en sus sistemas, que incluso ahora son propensos a errores. Pero es bueno contar con una defensa en caso de que nuestro mundo se convierta en Black Mirror las máquinas empiecen a hurgar en lo más profundo de nuestro subconsciente. Después de todo, no deberíamos descartar el reconocimiento de emociones, sobre todo dado el hecho de que esta tecnología resulta beneficiosa en ciertas áreas.

Consejos