El análisis de la ética en la inteligencia artificial nos conduce con frecuencia a enfoques de tipo normativo o legal. A veces, como defiendo con frecuencia, también a la aplicación de algoritmos y tecnología que permite eliminar o minimizar sesgos o respetar la privacidad de los datos, por ejemplo.
Sin embargo, a veces, y esto sucede bastante en el caso de la roboética, cuando surgen retos cuya respuesta no tenemos clara, cuando los valores aplicar no son evidentes o no están consensuados, hay que dar, en cierto sentido, un paso atrás y hacer un análisis casi filosófico de la situación y las opciones.
Sobre los agentes éticos y morales
Esto sucede, por ejemplo, cuando intentamos decidir si un agente (un robot o un vehículo autónomo, por ejemplo), tiene algún tipo de capacidad moral (agencia moral) y por lo tanto responsabilidad, ética pero también incluso penal, o si es paciente moral y por tanto, aunque se trate por ejemplo de un robot, puede tener ciertos derechos, merecer una cierta consideración moral.
Ya al final de su libro ‘Introduction to AI robotics‘, que tanto he citado en este blog, Robin R. Murphy repasa algunas teorías que existen al respecto de los robots (u otros agentes) con respecto a la relación de esos agentes con la ética o con la moral.
En concreto, Murphy cita el artículo ‘The nature, importance and difficulty of machine ethics‘ de James H. Moor profesor de filosofía intelectual y moral en la Universidad de Darsmouth, y publicado en 2006 en IEEE Intelligent Systems. En él, Moore propone cuatro categorías de los agentes con relación a la ética.
Las cuatro categorías de Moore
En concreto, las cuatro categorías, y ejemplificadas para el caso de robots, son las siguientes:
- Agentes con impacto ético: Se trataría de agentes, digamos robots, diseñados para dar soporte a aplicaciones o casos de uso o normas éticos. Sería el caso, por ejemplo, de los robots de rescate. El robot no razona en ningún modo sobre la naturaleza ética de lo que hace pero lo cierto es que tiene un impacto positivo en objetivos éticos como salvar vidas.
- Agentes éticos implícitos: Robots que no están programados para hacer consideraciones éticas pero sí para evitar efectos adversos desde el punto de vista ético. Se nos propone el ejemplo de robots que trabajan en entornos sanitarios y que se programan para evitar tropezar con y hacer daño a personas o los pilotos automáticos de aviones que avisan a las personas en caso de peligro.
- Agentes éticos explícitos: Se trataría de robots con capacidad de razonar sobre las consecuencias éticas de sus acciones. Entraríamos, por ejemplo, en el típico dilema moral a que se podrían enfrentar los vehículos autónomos en caso de accidente y en que el vehículo ‘debe decidir’ si sacrifica al conductor, a los peatones o a quién, tal como se analiza en la famosa máquina moral del MIT.
- Agentes completamente éticos: Se trataría de robots que pueden tomar, ejecutar y justificar decisiones éticas y hacerlo de forma generalizada a diferencia de los agentes éticos explícitos que solo lo hacen en situaciones concretas
Como nos advierte Murphy, estas categorías tienen que ver con la ética, claro, pero también con la autonomía operativa del agente, del robot.
Por otro lado, y hasta donde se me alcanza, hoy en día no es viable técnicamente construir robots que fuesen agentes completamente éticos y nuestro límite actual, y puede que incluso no conseguido completamente, es la construcción de agentes éticos explícitos.
Conclusión
A pesar de las limitaciones técnicas actuales para conseguir construir esos robots o esos artificios completamente éticos, creo que, aunque sea desde el punto de vista teórico y como marco conceptual que apoye la reflexión, una estructuración, una categorización como la que propone Moore y nos cuenta Murphy es útil e interesante.
2 comentarios