Hablar de consciencia en robots, como he venido haciendo en algunos de los últimos posts de este blog, puede parecer algo estrambótico, estrafalario, fuera de un discurso técnico, racional, o incluso realista.
Y sin embargo…
El valor de estudiar la consciencia robótica
Y, sin embargo, aunque personalmente estimo muy lejano, suponiendo que se alcance alguna vez, el momento en que se puedan realizar esa consciencia en un ser artificial, el sólo hecho de estudiarla estimula el debate e ilumina y hace incrementar conocimientos en varias ramas del saber: neurociencia, psicología, filosofía, derecho e inteligencia artificial. Y sólo por ese aporte intelectual, personalmente, creo que vale la pena.
Y sin embargo, además, y pese a lo que pueda parecer, es un campo donde hay estudios y teorías mucho más serias de lo que pueda parecer a primera vista.
En este post y en otro que publicaré próximamente, voy a revisar dos teorías sobre la consciencia que han ganado atención y cierta relevancia en medios científicos y que me he encontrado mencionadas en más de un libro aunque, como en tantos de los artículos que he publicado en las últimas semanas, me apoyaré para su descripción, fundamentalmente en libro ‘Cognitive robotics‘ editado por Angelo Cangelosi y Minoru Asada y, en concreto, el capítulo firmado por Antonio Chella y titulado ‘Robots and machine consciousness‘. Las dos teorías a que me refiero son:
- Integrated Information Theroy (IIT)
- Global Workspace Theory (GWT)
En este post, me ocuparé brevemente de la primera.
Integrated Information Theory (IIT)
Esta teoría fue lanzada en 2003 por Giulio Tononi, un médico psiquiatra y neurocientífico italiano nacionalizado estadounidense, actualmente director del Centro de Investigación del Sueño y la Consciencia de la Universidad de Wisconsin-Madison (WISC), y cuya última formulación publicada, que yo sepa, puede encontrarse en el artículo ‘Integrated information theory: From consciousness to its physical substrate‘ de 2016.
Según esta teoría, la consciencia, la capacidad para tener una experiencia, depende de la capacidad para integrar información.
Afirma que la experiencia consciente se caracteriza por que el número de posibles estados conscientes es enorme pero que, al mismo tiempo, se percibe como una entidad única. Por tanto, el substrato físico para soportar la consciencia debe ser capaz de integrar una gran cantidad de información y, al tiempo, presentarla como una entidad única.
Sigue a partir de aquí una formulación formal, casi matemática.
En esa formulación, se afirma que la capacidad de un cierto sistema para diferenciar entre estados, depende de su capacidad de generar información, y esa capacidad se mide mediante la entropía, que es una función de las probabilidades de las distintas salidas del sistema.
Y la capacidad de un sistema para integrar información se mide mediante un concepto que denomina información efectiva (‘effective information‘, EI), que es una medida de la interconexión de susbsistemas dentro de un sistema, y cuyo detalle, algo farragoso, excede el ámbito de este post.
El estudio de Tononi y sus colaboradores es, fundamentalmente, de naturaleza neurocientífica y, sin embargo, por su expresión formal y matemática nos acerca a un modelo computacional.
De hecho, el propio Tononi se refiere a la eventual consciencia en entes artificiales como los robots. Encuentro, por ejemplo, la siguiente afirmación
Any physical system may have experiences to the extent that it can integrate information.
Es coherente: si la consciencia depende de esa capacidad para diferenciar e integrar información, para disponer de un sistema artificial, digamos un robot, que pueda ser consciente ‘solo’ tenemos que dotarle de esa capacidad.
Sin embargo, y como podemos imaginar, esto no es tan sencillo. Sugiere Tononi que con las arquitecturas de computadores convencionales no se puede conseguir la necesaria capacidad de integrar información y que, como mucho, se pueden conseguir ingenios que simulen un comportamiento externo consciente pero que en realidad sean incapaz de experimentar realmente nada.
Y parece, pues, que se necesitan otro tipo de arquitecturas como pudieran ser, por ejemplo, los sistemas neuromórficos.
Conclusiones
La principal conclusión a obtener, creo, aparte de un somero conocimiento de esta teoría, es, precisamente, constatar que el investigar y tratar sobre la consciencia artificial no es tan ‘divergente’ como pueda parecer. Existen, aunque aún algo primitivas, teorías científicas potencialmente trasladables, además, a modelos computacionales.
Y eso parece querer decir que, aunque no estemos en apariencia cerca, puede que tampoco sea imposible de alcanzar.
2 comentarios