En un reciente post, al explicar el giro relacional en roboética propuesto por David Gunkel. en materia de roboética, mencionaba, brevemente, el término ‘mind reading‘ y sugería que lo trataría en un siguiente post. Bueno, ha llegado el momento de hacerlo.
Si menciono el término ‘mind reading’, (literalmente ‘lectura de la mente’) a aquellas personas que no conozcan el concepto, les puede sugerir algo misterioso, algo así como en una especie de telepatía o, ya que lo menciono en relación con la roboética, algo temible, como si las máquinas fuesen capaces de leer nuestra mente, nuestros más íntimos pensamientos y sentimientos. Pero no, no se trata de eso exactamente, aunque tenga alguna conexión y aunque ¡a saber dónde podemos llegar!.
El mind reading en humanos
En realidad, la idea del mind reading surge en el contexto de la psicología y hace referencia, no a una estricta lectura de la mente, sino a la capacidad que tenemos los seres humanos (supongo que también al menos hasta cierto punto otros seres vivos) de interpretar lo que, dicho familiarmente, ‘se le está pasando por la cabeza’ a nuestro interlocutor. Bueno, por la cabeza y por el corazón usado el corazón como metáfora de los sentimientos y emociones.
El mind reading es la capacidad para intuir los pensamientos y emociones de otros, con base en lo que expresa mediante lenguaje verbal, las expresiones faciales y, en general, todo tipo de lenguaje no verbal incluyendo, claro, elementos involuntarios como el ‘ponernos colorados’.
Aunque, como todo mecanismo natural no es perfecto, nuestras capacidades humanas de ‘mind reading’ son eficaces y suficientes para entender a los demás y así engrasar las relaciones interpersonales y sociales.
Mind reading en relación robots personas
Pero ¿existe ‘mind reading’ en las relaciones robots-personas o, en general en la relación de las máquinas y las personas?
Bueno, creo que podemos decir que existen al menos formas más o menos rudimentarias de ‘mind reading’.
Si lo pensamos en el sentido de que un robot haga ‘mind reading’ a una persona, es decir, entienda sus intenciones y emociones, podemos decir que, aunque de una manera imperfecta, existen mecanismos para ello.
De todos es conocido el formidable avance de los últimos años en materia de procesamiento de voz y de lenguaje natural, de forma que, aunque con alguna reserva, podemos decir que los robots tienen capacidad para ‘entender’ el lenguaje verbal. Es necesario precisar aquí que lo de ‘entender’ va con comillas, con muchas comillas en realidad, porque los algoritmos actuales de entendimiento de lenguaje natural, en general no comprenden lo que el humano dice, no asignan un verdadero contenido semántico a las palabras. Se trata de un tema con muchos matices y que, por ejemplo, nos llevaría al problema del ‘symbol grounding’, pero voy a evitar en este post complicarme con esos temas y asumir que, a efectos prácticos, y aunque de manera imperfecta, los robots pueden entender el lenguaje verbal.
Ya hemos tratado también con frecuencia cómo los robots, aplicando, por ejemplo, las técnicas de la computación afectiva (‘afective computing‘) pueden también deducir, aunque de manera aún limitada, emociones.
Y combinando estímulos verbales y no verbales, los robots puede, hasta cierto punto, estimar las intenciones de los humanos.
Es decir, los robots (pienso, por supuesto, en robots cognitivos avanzados) tienen unas razonables capacidades para hacer ‘mind reading’ a los humanos.
¿Y en el otro sentido?
¿Podemos los humanos entender las intenciones, emociones y estados internos de los robots?
Bueno, hay mucho que decir sobre en qué consisten esos estados internos, esas presuntas emociones e intenciones de los robots.
Pero antes de entrar en ello, decir que en el propio diseño de los robots sociales o incluso los robots software de naturaleza conversacional, se busca que tanto el lenguaje verbal, expresado mediante voz, como los gestos o expresiones faciales del robot, transmitan, precisamente, esas presuntas emociones o intenciones del robot.
¿Existe en los robots una mente que leer?
Quizá haya que explicar de qué estados internos, de qué emociones e intenciones estamos hablando si nos referimos a un robot o, dicho de otra forma ¿Qué ‘lee’ un humano de la mente de un robot?
Hay que ser claro: los robots, al menos los robots actuales, no tienen emociones. Punto. En ese sentido, no habría nada que leer… Bueno, relativamente. Es seguida vamos a ello.
¿E intenciones? Bueno, si por intenciones entendemos una forma de libre albedrío, podría ser tan radical como en el caso de las emociones y decir que no tienen libre albedrío. Y punto, de nuevo.
Sin embargo, sí que tienen claramente intenciones en el sentido de acciones que planifican realizar a continuación como consecuencia de sus objetivos y del estado del entorno en que se mueven (formando las personas parte de ese entorno). Y dado que son acciones ‘lógicas’, y siguiendo además una lógica similar a la humana, y que además los propios robots ‘señalizan’ de alguna forma esa intención, sí podríamos considerar que los humanos podemos ‘leer’, al menos hasta cierto punto, las intenciones de los robots.
Pero, y volviendo a las emociones, los robots sociales, aunque no sientan emociones, sí que simulan en su comportamiento externo, esas emociones. Sí tienen, o pueden tener, estados computacionales internos que les sitúan en una especie de estado emocional y que condiciona su comportamiento y cómo se expresan en su relación con los humanos a nivel de lenguaje verbal, gestual y, en general, las capacidades de lenguaje no verbal que el robot pueda exhibir.
Y los humanos podemos ‘leer’ esos estados emocionales porque, además, los robots sociales están expresamente diseñados para facilitar esa lectura de sus estados por parte de los humanos.
Mind reading y roboética
Y esto conecta con la roboética porque nos encontramos ante unos entes, los robots sociales o cognitivos avanzados, que no sólo son capaces de, hasta cierto punto, ‘leer nuestra mente’ (en el sentido psicológico del ‘mind reading’), sino que, además, simulan un estado interno que incluye emociones y, por supuesto intenciones y que los humanos podemos, a su vez, ‘leer’ e interpretar.
Y esto conecta con muchos elementos éticos.
Si, como defiende Gunkel, lo que puede definir el estatus moral de un robot es, no su propia naturaleza (enfoque de las propiedades), sino las relaciones que mantenemos con ellos, en cierto sentido pierde importancia el que el robot no tenga verdaderas emociones o libre albedrío en la medida que en su relación con los humanos sea capaz de leer suficientemente bien nuestra mente y simular, suficientemente bien su propia mente y simularla de una forma que los humanos podamos leer.
Y todo esto afecta, pues, a su estatus moral o a problemáticas éticas que incluyen la eventual amistad de personas con robots, e incluso las relaciones sentimentales con robots.
Conclusiones
Hemos visto que el ‘mind reading’ es una capacidad de naturaleza esencialmente psicológica que tenemos los seres humanos y que facilita y moldea nuestras relaciones.
Y hemos visto que, aunque con limitaciones e imperfecciones (que seguramente se irán borrando en el futuro a medida que la tecnología avance), los robots cognitivos y sociales avanzados pueden, a su vez simular estados anímicos internos, intenciones y emociones y hacerlo de manera que los humanos podamos ‘leer’ esos estados, esas intenciones y emociones.
Dejando aparte el enorme interés científico y técnico de este hecho, también es muy relevante las herramientas que añade y también las problemáticas que abre desde un punto de vista ético