En el post anterior, titulado ‘Qué es una máquina ética y tres motivos para desarrollar robots éticos‘ hablaba del concepto de máquina ética y algunos motivos de alto nivel para acometer el desarrollo de máquinas o robots éticos.
Me basaba para ello en la argumentación de Michael Anderson y Susan Leigh Anderson expresada en su artículo «Machine Ethics: Creating an Ethical Intelligent Agent» y que conocía a través de Sven Nyholm y su libro ‘Humans and Robots: Ethics, Agency, and Anthropomorphism‘.
En este post voy a prescindir de referencias externas y voy a intentar contestar en primera persona a la pregunta de si es posible enseñar ética a una máquina y, en concreto, a un robot.
La investigación y el ‘bote pronto’
Advierto, eso si, quizá en mi defensa y mi descargo, quizá sólo como expresión de libertad y honradez intelectual, que se trata de una contestación un poco ‘a bote pronto’, sin pensarlo demasiado, tal y como lo veo en este momento.
Desde hace unos meses estoy dedicando tiempo, bastante tiempo, a investigar y profundizar sobre inteligencia artificial y robots y también a las consideraciones humanísticas y éticas que rodean a estas máquinas avanzadas.
Y lo hago desde una doble perspectiva: técnica y humana.
Técnica porque me apasiona la tecnología (no en vano soy ingeniero y nunca me he arrepentido de ello) y porque creo que gran parte de la objetividad y sobre todo de la factibilidad de las propuestas viene de conocer, de la manera más profunda y realista posible, de qué estamos hablando realmente, dónde nos encontramos en tecnología y qué posibilidades se encuentran a nuestro alcance más allá de fantasías y narrativas.
Y humana porque también me interesa, que nadie piense lo contrario, porque persigo una visión amplia y porque si hablamos de ética hay que conocer los conceptos de ética y filosofía y también conviene estar al tanto de consideraciones legales y de contextos psicológicos, antropológicos y sociológicos.
Se trata de un viaje intelectual apasionante pero del cual creo encontrarme en el principio así que es posible que, con el tiempo, llegue a nuevos hallazgos o vea las cosas de distinta manera a como lo hago ahora.
Así que ésta es solo una valoración ‘de urgencia’ y provisional.
Y tras el preámbulo, vamos allá: ¿se puede enseñar ética a un robot?
La contestación básica: sí, posible, es posible
La contestación básica a la pregunta es que sí. Somos capaces de transmitir a las máquinas mucho conocimiento humano, muchas reglas de negocio, muchas directrices, muchos criterios, así que, a priori, también es posible hacerlo con la ética.
Es especialmente posible dado el desarrollo actual, y previsible desarrollo futuro, de la inteligencia artificial, que permite la implementación de algoritmos capaces de tratar no sólo con reglas explícitas sino también con algunas reglas o patrones implícitos que estos algoritmos avanzados son capaces de descubrir.
Y esa capacidad, ya muy notoria, creo que no hará otra cosa que aumentar y sofisticarse en los próximos años.
Así que si, tengo pocas dudas de que posible, lo que se dice posible, es posible enseñar ética a un robot.
Sin embargo, aun siendo posible, en mi opinión, enseñar ética a una máquina, a un robot, es muy importante que no caigamos en el optimismo ni en el malentendido, que la cosa no es tan ‘bonita’ como parece la afirmación desnuda.
Ese sí que proclamo, viene muy limitado, muy condicionado y muy explicado por una larga serie de peros.
Vamos a ver cuatro peros.
Pero #1: ¿Qué significa que una máquina es ética?
Aunque hablé de esto en el artículo anterior, ahora quiero ser más explícito en algo muy, muy relevante para evitar la fantasía: ninguna máquina, ninguna, al menos ninguna de la que dispongamos de hoy día (ni creo que en un futuro cercano), es ‘etica’ en el sentido que podemos decirlo de una persona.
Consideramos una máquina como ética si exhibe comportamientos que se ajustan a nuestra ética y nuestra moral. Comportamientos.
Es decir, externamente se comporta de forma ética pero eso no quiere en absoluto decir que tenga ningún tipo de conciencia, voluntad o buenos sentimientos que le impulsen a comportarse de esa manera ética.
En absoluto.
Exhibe externamente unos comportamientos éticos que le hemos programado o enseñado. Los exhibe externamente. Y se los hemos enseñado nosotros. Se los hemos imprimido nosotros y los ha automatizado. No hay voluntad ni vida interior, sino automatismo y comportamiento.
Nada más, no nos confundamos en esto.
Pero #2: De la inteligencia artificial débil a la ética débil
Segundo ataque a la fantasía: Terminator no existe. Ni el héroe ni el villano. No existe una inteligencia artificial fuerte, de propósito general que ni de lejos se acerque hoy día a la capacidad para afrontar todo tipo de problemas y situaciones que tiene el ser humano. Ni de lejos.
La inteligencia artificial de que disponemos actualmente es la llamada inteligencia artificial débil, una inteligencia artificial concentrada en problemas concretos, no en un un propósito general. Es una inteligencia artificial sofisticada, maravillosa, asombrosa…pero de ámbito reducido.
Podemos conseguir, o al menos eso pienso yo, una máquina ética pero con una ética que, como el ámbito de aplicación de la máquina, robot o algoritmo, será reducida, como en el manido caso de la decisión que debe de tomar un vehículo autónomo ante un accidente mortal inevitable: un criterio que, caso de consensuarlo, aplica a condición autónoma y accidentes mortales, pero no para saber si está mal robarle a una ancianita.
Por decirlo de alguna manera, podremos enseñar una ética débil, no por aplicar reglas poco exigentes, sino por hacerlo en ámbitos reducidos.
Pero #3 ¿Qué es enseñar a una máquina?
Este es un pero menor, más bien conceptual, pero que me parece conveniente aclararlo. Al hablar de enseñar a una máquina podemos tender a imaginarnos una versión antropomórfica de la enseñanza y, en este caso, de la enseñanza de la ética.
No, no se trata de que los robots asistan a unas clases en que se les hable de Aristóteles y sus virtudes, o del enfoque kantiano y el imperativo categórico o de la visión consecuencialista y que, a partir de ahí, el robot saque sus conclusiones y ya se comporte como un buen y virtuoso ciudadano.
Ni siquiera se trata de que el robot ‘se empolle’ el código legal vigente, lo entienda y lo aplique.
Nada de eso.
Un robot aprenderá como aprenden las máquinas hoy en día.
Si las reglas que tiene que aplicar son muy claras como la que sugiere que un voicebot o un chatbot se debe presentar como tal y no simular que es un humano, esa regla se podrá imprimir en el comportamiento del robot por pura programación tradicional, similar a las reglas de negocio que se aplican, por ejemplo, en el software de automatización de procesos de negocio o de juegos no muy avanzados.
Si se trata de comportamientos más complejos y no fácilmente compilables en reglas, lo aprenderá en general mediante el entrenamiento de sus algoritmos, probablemente de aprendizaje supervisado o por refuerzo, con base en datos, experiencia y feedback normalmente facilitado por parte de humanos.
Y es posible que ese aprendizaje se haya detenido cuando el robot se utilice ya por personas ‘normales’ más allá de los desarrolladores y científicos de datos y no siga aprendiendo por más que le intentemos dar consejos o indicaciones bienintencionadas de lo que debe hacer.
Así aprenden las máquinas hoy en día. No esperemos otra cosa.
Pero #4 ¿De qué ética hablamos? Una ética aún más débil
Y llega el momento de no ‘echarle toda la culpa’, o más bien, todas las limitaciones, a la tecnología y mirarnos a nosotros mismos, a los humanos, a nuestras limitaciones y nuestras contradicciones.
Porque, vamos a ver: ¿Qué ética queremos enseñar a los robots cuando tras 25 siglos de existencia de esta disciplina aún no hemos sido capaces de consensuar nosotros mismos unos valores y un sistema moral único?
No esta claro que, ni siquiera, la Declaración Universal de los Derechos Humanos sea aceptada de corazón por todos los países, todas las culturas y todas las personas.
Ni siquiera parece valorarse por igual, en todas partes, la propia vida humana.
Es también bastante divergente, por poner un ejemplo muy claro, la valoración que sobre la privacidad o la autonomía del individuo se hace en los países occidentales frente a la que se realiza en los orientales, muy en especial China.
Y, ya que hablamos de robots, no existen referencias claras ni consensos claros en aspectos sobre si es lícita o no la amistad o las relaciones amorosas entre robots y personas. Aún no lo hemos estudiado lo suficiente o aún no nos hemos puesto de acuerdo, que para el caso es lo mismo.
¿Qué ética le vamos a enseñar entonces a los robots? ¿Qué reglas les vamos a programar? ¿Qué comportamientos deben valorar como adecuados para aprenderlos? ¿Qué datos, qué ejemplos y qué feedback les vamos a dar para que entrenen sus algoritmos?
Supongo que, de momento, no tenemos más remedio que ceñirnos a ámbitos acotados, donde podamos tener las ideas claras y criterios comunes. Unos ámbitos acotados bien a nivel regional, en zonas y culturas como la Unión Europea con unos valores y una legislación razonablemente armonizadas y en claro desarrollo, y ámbitos acotados en aspectos en que tengamos una idea clara de qué consideramos ético y por por tanto que sepamos decirle de alguna forma al robot cómo hay que actuar.
Si al enfocar la posibilidad desde una visión técnica hablábamos de una inteligencia artificial débil, y por tanto de una ética débil, ahora tenemos que limitarnos aún más por nuestra propia falta de criterios y consensos… con lo que la ética que podemos enseñar a las máquinas es aún más débil.
Una observación: ¿Quién debe aprender la ética?
Antes de elevar las conclusiones del post quisiera hacer una observación que creo importante.
En este artículo hemos hablado de que las máquinas, los robots, aprendan reglas éticas.
Pero hay otra opción, mucho más a nuestro alcance a pesar de las contradicciones que nos aquejan: mientras conseguimos o no que los robots sean éticos, preocupémonos de ser éticos nosotros, y de usar a los robots de una forma ética.
En ese planteamiento anulamos todas o casi todas las limitaciones técnicas puesto que seguimos nosotros, los humanos, al mando.
Con ello ya sólo nos quedan nuestras propias decisiones y nuestros valores, sí, pero también nuestras faltas de criterio y consenso.
¿Seremos capaces de superarlas?
En conclusión
En conclusión, si, es posible enseñarle ética a una máquina, pero en ámbitos acotados, muy acotados tal vez y siempre que sepamos traducir esos criterios morales en alguna forma de reglas que podamos programar o ejemplos que podamos suministrar a los robots para que aprendan.
Mientras lo conseguimos, a lo mejor, el desafío es ser éticos nosotros, los humanos.
Queda, en cualquier caso, mucho, muchísimo, por hacer. En lo técnico, en lo ético y en lo legal.
El camino se promete apasionante.
2 comentarios