Nos hemos acostumbrado a hablar de la ética de los algoritmos o, quizá, por mejor decir, la aplicación de criterios éticos a la construcción de algoritmos o sistemas basados en Inteligencia Artificial.
Pero, ¿Se te había ocurrido pensar que la propia ética se pudiese expresar como un pesudocódigo, como un algoritmo?
Bueno pues, hasta cierto punto, es posible. No al cien por cien, porque para que fuese un verdadero algoritmo debería ser absolutamente indudable y deberíamos ser capaces de codificarlo en python o similar. Y no, a tanto no llegamos (ya quisiéramos), pero sí a una aproximación.
Las teorías utilitaristas y consecuencialistas de la ética
Aquellos versados en ética o filosofía pueden intuir por dónde ‘van los tiros‘. Una de las grandes corrientes éticas de la historia, y que aún se utiliza en la introducción a la ética de la tecnología o de la inteligencia artificial, son las denominadas teorías utilitaristas o consecuencialistas, siendo sus grandes representantes Jeremy Bentham y John Stuart Mill.
En su concepción inicial, de corte hedonista, lo que importa desde un punto de vista moral es aumentar las experiencias placenteras y minimizar el sufrimiento, las experiencias no placenteras. Pero, al hacerlo, se adopta no tanto una visión individual como colectiva, de forma que hacer el bien es maximizar el placer total y minimizar el sufrimiento total (de toda la humanidad). Además, en las formulaciones más tardías, como la de Stuart Mill, no todos los placeres o sufrimientos tienen el mismo rango (¿podríamos hablar de ‘peso’?) siendo más relevantes, por ejemplo, los placeres intelectuales.
En el caso de Mill entiende que, tanto el placer como el sufrimiento tiene una visión inmediata y otra a futuro. En ambos casos, el valor inmediato depende de unos factores (intensidad, duración, certidumbre y cercanía) y la futura de otros dos factores (fecundidad y pureza) pero no vamos a entrar en definir esos factores.
Por tanto, en un caso dado la opción moralmente correcta sería aquella que maximizase una función de utilidad que valore el placer y sufrimiento generados por la acción.
¿Ha notado el lector el uso de palabras como ‘maximizar’, ‘función’, ‘factor’ o ‘peso’? ¿No parece un lenguaje matemático y algorítmico?
Pues si que lo parece, y con motivo, porque es que entre los filósofos utilitaristas había un gran peso de economistas acostumbrados a manejar esa función de utilidad que, al menos conceptualmente, es una función matemática (otra cosa es que sepamos definirla con precisión) y si, el máximo o mínimo de esa función es el que estamos acostumbrados a tratar en matemáticas.
Algo así como un pseudocódigo ético
Lo anterior es teoría muy general de la ética, pero ha venido recientemente a mi mente, y me ha apetecido consignarlo aquí, leyendo el libro ‘Estupidez artificial‘ de Juan Ignacio Rouyet, quien lo explica muy claramente.
Además, Juan Ignacio, en su libro, nos aporta una especie de seudocódigo que implementa esa función de utilidad. El pseudocódigo (que he modificado ligeramente para acercarlo más al aspecto de un código en C o Python), sería:
Inicializar balance total de la acción a cero.
Para todas las personas afectadas por la acción {
Calcular su valor de placer {
Valor inmediato: sumar los valores de placer según intensidad, duración, certidumbre y cercanía
Valor futuro: sumar los valores de placer según fecundidad y pureza
}
Calcular su valor de dolor {
Valor inmediato: sumar los valores de dolor según intensidad, duración, certidumbre y cercanía
Valor futuro: sumar los valores según fecundidad y pureza
}
Hacer balance de la persona (placer - dolor)
Sumar el balance de persona al balance total
}
Si el balance es positivo, la acción es buena; si es negativo, mala
En este algoritmo sólo nos falta la maximización de la utilidad pero, eso sería, simplemente, calcular la utilidad para las diferentes acciones posibles y elegir la que arroja un valor mayor.
Y ¡voilá! la ética como algoritmo.
Si el lector tiene curiosidad, puede ver una explicación de las funciones de utilidad en este vídeo ‘Utilitarian, Rawlsian and Weighted Social Welfare Functions‘ de Ashley Hodgson, que es a quien corresponde la imagen de portada.
Conclusión
Lo que he contado en este post, en el fondo es poco más que una curiosidad, casi un divertimento, pero sirve, aparte de para entender un poco más el enfoque, utilitarista y consecuencialista de la ética, para, quizá, que alguno pierda esa ‘manía’ que parece que se les tiene a los algoritmos.
Si hasta una valoración moral de una acción se puede expresar como un algoritmo y como pseudocódigo, será que no son tan malos ¿no?
1 comentario