El planteamiento que hay detrás de ‘Rebooting AI‘ es relativamente simple: los autores ven poco creíble la llegada de la singularidad o de una superinteligencia que nos supere pero, a cambio, sí entienden que la inteligencia artificial actual es poco fiable y que es necesario dar un gran cambio de timón que nos permita conseguir esa inteligencia artificial en la que, como dicen los autores, podamos confiar.
Esas ideas las desarrollan a través de ocho capítulos:
- ‘1. Mind the gap‘: Un capítulo introductorio que, entre otras cosas, insiste en el hecho de que la inteligencia artificial de que disponemos hoy en día es una inteligencia artificial débil, enfocada en problemas concretos y lejos de lo que el ruido mediático puede hacer creer. Además, en opinión de los autores, se trata de una Inteligencia artificial que no es confiable, puesto que no podemos asegurar que se comportará correctamente ante una situación no prevista por sus programadores. Los autores defienden que la forma en que actualmente se desarrolla la inteligencia artificial, además, no nos va a conducir a una inteligenca artificial, segura, sabia y confiable por lo que es preciso un cambio de rumbo, un reinicio. Y para ello entienden necesarias tres cosas: entender lo que está en juego. un entendimiento claro de por qué los sistemas actuales no están consiguiendo hacer bien su trabajo y una nueva estrategia.
- ‘2. What’s at stake‘: Los autores expresan que de lo que debemos preocuparnos realmente, no es de una presunta superinteligencia o de la singularidad, sino de que las máquinas reales hagan bien su trabajo de una manera confiable y en ese línea repasan una serie de riesgos en caso de no hacerlo así para acabar concluyendo, de nuevo, que lo que se necesita es otro enfoque, otra estrategia.
- ‘3. Deep Learning, and Beyond‘: Un capítulo algo más técnico y objetivo, en que cuentan las ideas fundamentales de los algoritmos de deep learning y algún detalle de otros algoritmos.
- ‘4. If Computers Are So Smart, How Come They Can’t Read?‘: Hacen un repaso de algunas de las limitaciones y errores que nos podemos encontrar en el procesamiento de lenguaje natural existente hoy en día en soluciones como buscadores, asistentes virtuales, etc y destacan que algunas de sus limitaciones clave son la falta de ‘composicionalidad’ es decir, de la capacidad de construir un significado complejo a partir de significados simples y la dificultad para incorporar conocimiento de ‘background’ o para gestionar la ambigüedad, para concluir que, en el fondo, lo que sucede es que los ordenadores realmente no entienden nada de lo que están leyendo.
- ‘5. Where’s Rosie?‘: Comienzan restando credibilidad a la posibilidad de construir una superinteligencia que pudiera volverse contra nosotros. Analizan, basándose en robots, vehículos autónomos, etc, otra serie de limitaciones actuales analizando, por ejemplo, la conciencia de situación (‘situational awareness‘) es decir, entender qué puede pasar a continuación o la dificultad para saber cuál es el mejor curso de acción en un momento dado. Concentran en tres puntos esas limitaciones: evaluación de situaciones, predicción de futuros probables y decisión dinámica a medida que las situaciones cambian. Y al final, concluyen que se necesitan unos modelos cognitivos enriquecidos.
- ‘6. Insights from the Human Mind‘: Una especie de paréntesis en que se aportan algunos puntos de vista procedentes de la neurociencia que parecen indicar, por ejemplo, que la cognición humana hace un uso extensivo de representaciones internas, que los mecanismos de abstracción y generalización son cruciales, que los sistemas cognitivos son altamente estructurados, que los procesos cognitivos, incluso los aparentemente simples, suelen requerir de muchas herramientas diferentes, que el lenguaje y pensamiento humanos son claramente composicionales, que los conceptos que manejamos forman parte de unas ciertas teorías sobre el mundo, que las relaciones causales son fundamentales para nuestro entendimiento del mundo, que las personas monitorizamos personas o cosas no categorías y, finalmente, que las criaturas cognitivas heredan ya un cierto conocimiento y no parten de un papel en blanco.
- ‘7. Common Sense, and the Path to Deep Understanding‘: Tras un breve análisis sobre el sentido común, comienzan a plantear qué necesitaríamos para la nueva inteligencia artificial e identifican dos cosas para empezar: un inventario del tipo de conocimiento que una inteligencia general debería poseer y un entendimiento de cómo podríamos representar ese conocimiento de forma clara y no ambigua. Hablan de que para obtener un razonamiento adecuado deberíamos encontrar la forma correcta de representar el conocimiento y enfocado en los dominios adecuados y, además, que deberíamos encontrar un mecanismo de aprendizaje que se apoye en el conocimiento ya existente, en lugar de empezar casi desde cero en cada nuevo dominio. Entienden que la solución final es una inteligencia que, ni tiene todos lso comportamientos ya programados, ni tampoco debe aprender todo desde cero. Su receta final es: comenzar por desarrollar sistemas capaces de representar los elementos nucleares del conocimiento humano (tiempo, espacio, causalidad básica, un conocimiento básico de los objetos y sus interacciones y un conocimiento básico de los seres humanos y sus interacciones. Una vez hecho esto, integrarlo todo en una arquitectura que puede extender libremente cualquier tipo de conocimiento, teniendo en cuenta los principios de abstracción, composicionalidad y monitorización de individuos. Desarrollar además técnicas de razonamiento poderosas que puedan gestionar un conocimiento incompleto o incierto y que puedan trabajar de arriba a abajo y de abajo a arriba. Conectar luego eso a los sistemas de percepción, manipulación y lenguaje. Usar todo lo anterior para construir modelos cognitivos enriquecidos. Y, finalmente, desarrollar un sistema de aprendizaje inspirado en los humanos que use todas las capacidades cognitivas y conocimientos de la Inteligencia Artificial.
- ‘8. Trust‘: Ataca finalmente, la forma de probar y depurar las soluciones construidas y de imbuir de alguna forma valores y ética.
El conjunto del libro resulta de lectura atractiva e interesante pero, en mi opinión, tras un análisis bastante correcto y completo, la solución que plantean, sin embargo, ese famoso reinicio de la inteligencia artificial que constituye su leit-motiv, es demasiado abstracto, demasiado de alto nivel y, en apariencia, poco conectado con una implementación real y a corto plazo de las ideas que proponen, ni siquiera de sus primeros pasos lo cual lo convierte en un libro especulativo, quizá alejado de la realidad en lo que al plan de acción se refiere.
Gary Marcus
(Fuente: Traducción y elaboración propia del perfil en su página oficial)
Gary Marcus es un científico, autor superventas y emprendedor. Es el fundador y CEO de Robust.ai y fue fundador y CEO de Geometric Intelligence, una compañía de machine learning adquirida por Uber en 2016. Es el autor de cinco libros incluyendo ‘The Algebraic Mind‘, ‘Kluge‘, ‘The Birth of the Mind‘, y el superventas del New York Times ‘Guitar Zero‘, además de ser editor de ‘The Future of the Brain‘ y ‘The Norton Psychology Reader‘.
Ha publicado ampliamente en campos que abarcan desde el comportamiento humano y animal, hasta la neurociencia, genética, lingüística, psicología evolutiva e inteligencia artificial, con frecuencia dirigiendo revistas como ‘Science and Nature‘ y es quizá el Profesor Emérito más joven de New York University. Su último libro, escrito en colaboración con Ernest Davis ‘Rebooting AI: Building Machines We Can Trust‘ busca sacudir el campo de la inteligencia artificial.
Puedes saber más del autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @GaryMarcus.
Ernest Davis
(Fuente: Traducción y elaboración propia del perfil en su ficha de autor en Penguin Random House)
Ernest Davis es profesor de ciencia de los computadores en el Courant Institute of Mathematical Science, New York University. Uno de los científicos líderes en razonamiento de sentido común para inteligencia artificial, es autor de cuatro libros, incluyendo ‘Representations of Commonsense Knowledge and Verses for the Information Age‘.
Es co-autor de ‘Rebooting AI: Building Artificial Intelligence We Can Trust‘ junto con Gary Marcus.
Puedes saber más del autor visitando su perfil en New York University.
Ficha técnica
TITULO: Rebooting AI. Building Artificial Intelligence We Can Trust
AUTOR: Gary Marcus y Ernest Davis
EDITORIAL: Random House
AÑO: 2019
ISBN: 978-1524748258
PAGINAS: 290