La Inteligencia Artificial tienen un algo de mítica, misteriosa, fantástica…
Puede que sea por esa atribución de misión no completamente acertada: emular la inteligencia humana. Algo que ya vimos al hablar de la metáfora e inspiración de la inteligencia artificial que no es completamente cierto.
Como la mente humana es misteriosa y no la entendemos completamente, quizá ni siquiera básicamente, parece que la Inteligencia Artificial también debe gozar de ese halo de misterio, de ese aura de impenetrabilidad, de comprensión incompleta.
Y lo cierto es que algunas de las técnicas más populares de la Inteligencia Artificial, las redes neuronales y el deep learning, exhiben esa naturaleza misteriosa: sabemos sus fundamentos, sabemos sus algoritmos y, sin embargo, no alcanzamos a comprender del todo cómo es posible su aprendizaje, especialmente en el caso de las redes no supervisadas.
Sin embargo, como suele suceder con cualquier disciplina, a medida que ésta avanza y madura, hay problemas que se resuelven y son ya perfectamente conocidos.
Y ahí es donde Jerry Kaplan, en su libro ‘Artificial Intelligence. What everyone needs to know‘ nos descubre una paradoja:
the field of AI suffers from an unusual deficiency – once a particular problem is considered solved, it often is no longer considered AI.
O sea, que cualquier técnica procedente del campo de la Inteligencia Artificial que madure hasta el punto de ser perfectamente conocida y entendida…deja de ser Inteligencia Artificial.
A lo mejor en este caso, la metáfora resulta perjudicial…