Automation blindness o el riesgo para human-in-the-loop
Un mecanismos de supervisión de decisiones algorítmicas es human-in-the-loop pero se enfrenta al riesgo denominado automation blindness.
Un mecanismos de supervisión de decisiones algorítmicas es human-in-the-loop pero se enfrenta al riesgo denominado automation blindness.
Tras una introducción y antecedentes, se analizan la explicabilidad en LLMs y modelos razonadores llegando a una conclusión esperanzada.
En este post se presenta, sin profundidades, la inteligencia artificial neurosimbólica como una tercera ola en inteligencia artificial.
En este post exploro la explicabilidad en los grandes modelos de lenguaje, si existe, cómo se acomete e, incluso, si es posible.
En este post se explican y valoran cuatro principios para una buena explicabilidad algorítmica con base en dos fuentes diferentes pero convergentes.
Este artículo ofrece dos Perspectivas de la explicabilidad de la inteligencia artificial, con base en un artículo de Miller et. al y valora lo ahí aportado.
Entre las temáticas que se empiezan a exigir, o hablar de exigir, a la inteligencia artificial, partiendo normalmente de una visión ética o normativa, es la llamada explicabilidad de la inteligencia artificial, es decir, que un algoritmo, o mejor, un sistema de inteligencia artificial, sea capaz de explicar su modo de razonamiento, cómo ha llegado a…
Reseña de ‘Explainable AI: Interpreting, Explaining and visualizing deep learning’ un estado del arte de la explicabilidad de la inteligencia artificial.
El machine learning y los algoritmos de explicabilidad de la inteligencia artificial se pueden combinar para ofrecer un gran truco de magia.
El diseño de medicamentos es también un área de trabajo del deep learning. Si, además, le añadimos explicabilidad, los resultados son más que interesantes.