A medida que los robots y máquinas inteligentes se van sofisticando incluyendo elementos avanzados como la visión artificial, el procesamiento de lenguaje natural o el control del movimiento, y a medida que progresan los denominados robots sociales, robots orientados a la interacción con personas, cobra un creciente interés la capacidad de esos robots, esas máquinas o ese software para reconocer emociones humanas y para simular emociones en el robot.
De cara a ese tratamiento computerizado de emociones, es interesante el clasificar y poner orden de alguna manera a un territorio tan aparentemente difuso e inasible como son las emociones humanas. A pesar de la dificultad de la empresa, existen en realidad desde hace ya un cierto tiempo diferentes modelos de clasificación y caracterización de las emociones humanas, unos modelos que provienen en realidad más del campo de la psicología que de la computación, la robótica o la inteligencia artificial.
En el libro libro ‘Human-Robot Interacion. An Introduction‘, de Christoph Bartnek, Tony Belpaeme, Firedrike Eyssel, Takayudi Kanda, Merel Keijsers y Selma Sabanovic se nos habla de algunos de estos modelos.
Así por ejemplo, se nos menciona el modelo OCC de Ortony, Clore y Collins, que se remonta a 1988 y que identifica 22 categorías de emociones con base en las reacciones ante eventos, los actos de agentes tanto externos como uno mismo, o el atractivo o no de un objeto. Proporciona una cobertura bastante amplia de las situaciones que un robot se puede encontrar.
Otros modelos de clasificación de emociones lo que hacen es situar las emociones dentro de un espacio multidimensional. Así, por ejemplo, en la obra citada se nos menciona el modelo bidimensional de Russell. En este modelo las dimensiones serían la valencia (‘valence‘) y la excitación (‘arousal‘) .
Posteriormente, ese modelo ha dado lugar a otros más evolucionados y que incluyen alguna otra dimensión como el llamado PAD (Pleasure, Arousal, Dominance) que, como puede intuirse del nombre, utiliza tres dimensiones en lugar de dos: placer, excitación y dominio.
Según se nos menciona en la obra citada, la mayor parte del software que reconoce emociones, trabaja todavía, sin embargo, con el modelo de Ekman, algo más sencillo y que reconoce sólo seis emociones: ira, disgusto, miedo, felicidad, tristeza y sorpresa.
Establecidos esos modelos de emociones, sean éstos más o menos acertados y más o menos cercanos a la realidad, no resulta difícil imaginar que un software de machine learning, adecuadamente entrenado, pueda reconocer, con base en expresiones faciales, lenguaje verbal y gestos, las emociones descritas en los modelos. También resulta perfectamente creíble, y más con lo que ya vemos en los cada vez más populares chatbots, que los robots sean capaces de ‘impostar’, con mayor o menor naturalidad esas emociones y adaptar su lenguaje, sus gestos y su expresión facial (cuando están dotados de algún tipo de cara) a esas emociones.
La vía está abierta, pues, para que los robots sociales simulen un comportamiento emocional y afectivo…y a partir de aquí las posibilidades con inmensas, y las implicaciones sociales y éticas también. Es apasionante pero impresiona un poco. Está claro que, aparte de los aspectos científicos y tecnológicos, empieza a haber algo más en juego…