Cuando nos referimos, de manera general, a la explicabilidad de la inteligencia artificial, de manera intuitiva sabemos que lo que queremos es entender cómo razonan los algoritmos, cómo toman de alguna forma sus decisiones o llegan a sus conclusiones.
A la hora de referirse a esa capacidad, y aunque quizá el término más conocido sea el de explicabilidad, también se utiliza con cierta frecuencia el término interpretabilidad y normalmente se tienden a emplear como sinónimos.
Quizá, ‘para andar por casa’ lo podamos hacer así. Sin embargo, en el libro ‘Explainable AI: Interpreting, Explaining and Visualizing Deep Learning‘ editado por Wojciech Samek, Grégoire Montavon, Andrea Vedaldi, Lars Kai Hansen y Klaus-Robert Müller nos mencionan un matiz, una distinción que puede ser relevante, al menos para entender mejor de qué hablamos.
En esta distinción, el concepto más básico es el de interpretabilidad que recoge la capacidad de comunicar la función de un algoritmo de machine learning a un usuario (función entendido, asumo, como el funcionamiento, la descripción de cómo es la transformación de entradas en salidas).
La explicabilidad necesita la interpretabilidad, es condición necesaria, pero esa interpretabilidad no es suficiente. Para que haya explicabilidad se debe añadir otro elemento que es la completitud (‘completeness‘) que en este contexto quiere decir que la explicación que obtenemos sea suficientemente profunda como para poder ser auditada y, de alguna forma, ‘que ésta defender’ sus acciones y proporcionar respuestas a preguntas.
Según esta forma de razonar, la explicabilidad viene a ser la unión o la suma de la interpretabilidad y la completitud.
Quizá, esta distinción conceptual sea ‘hilar muy fino’. Quizá, en el fondo, en un campo tan especializado como es el de la explicabilidad de la inteligencia artificial, sus practicantes no abriguen demasiadas dudas ni lagunas conceptuales sobre lo que realmente están intentando conseguir, pero, por si acaso, y por si añade algo útil, ahí queda la distinción.