La inteligencia artificial es, probablemente, la tecnología más transformadora que podemos contemplar hoy en día.
Una tecnología que, sin embargo, es muy diversa y polifacética tanto en cuanto a sus técnicas como en cuanto a sus aplicaciones. Eso que la convierte, creo, en más valiosa a interesante, complica, sin embargo, su definición.
La definición de la inteligencia artificial
En efecto, suelo decirle a los alumnos de cursos en que en mayor o menor medida abordo la inteligencia artificial, que todavía no he encontrado una definición que me satisfaga plenamente, una definición correcta, abarcadora, que delimite bien las fronteras y, en la medida de lo posible, corta y clara.
Al igual que hago en mi segundo libro ‘Robots en la sombra‘ suelo recordar en primer lugar la, no sé si definición o explicación’, que en su momento aportó McCarthy, uno de los padres de la inteligencia artificial.
Hacer que una máquina se comporte de una forma que consideraríamos inteligente si un humano se comportase de esa forma.
Una declaración simple, aspiracional y fácil de entender… pero laxa y alejada de lo que es realmente hoy en día la inteligencia artificial.
En mi primer libro, ‘La carrera digital‘ proponía la siguiente definición:
Inteligencia artificial es una disciplina que define algoritmos capaces de aprender a partir de datos y experiencia, adaptando su comportamiento con un cierto grado de autonomía.
aunque, y sabiendo que está mal que yo lo diga, es de las definiciones que creo más acertadas, sin embargo, y a pesar de ser mía, tampoco me satisface completamente. Sobre todo porque parece referirse sólo al machine learning que, a pesar de ser el subconjunto dominante, y muy dominante, hoy en día en la inteligencia artificial, no lo es todo, especialmente si miramos al pasado, a las primeras realizaciones de la inteligencia artificial y, cualquier sabe si será tan dominante en el futuro.
El enfoque pragmático
Para mis labores de formación, e incluso de investigación y reflexión, en este ámbito como en otros, y muy especialmente el de la robótica, donde el propio término robot está sometido a encendidos debates, suelo adoptar lo que llamaría un enfoque pragmático.
Un enfoque en que ‘no me empeño’ en encontrar la definición perfecta, sino en ser capaz de explicar (si es posible hacerlo apoyado en un diagrama de bloques, aún mejor) la idea principal y las características que, al menos en la mayor parte de las veces, exhibe aquello que llamamos robot o que llamamos inteligencia artificial.
Las definiciones y la ley
Ese enfoque pragmático, que considero acertado y útil en muchos casos, puede que sea un lujo que una formulación jurídica, una ley o un reglamento no se puedan permitir.
No soy jurista, así que puedo equivocarme en mis apreciaciones, pero siempre me ha parecido que uno de los ámbitos donde mayor atención se presta a las definiciones, a un uso preciso, extremadamente preciso, del lenguaje, en en el ámbito legal.
Y me parece muy bien que sea así. El rigor es muy bueno en cualquier ámbito de la vida, pero en el legal creo que es imprescindible. Si vas a marcar en un texto lo que las personas e instituciones pueden hacer y lo que no, y si presuntamente vas a castigar a quien no observe esas directrices, más vale que seas claro en el establecimiento de las reglas y para ello, entre otras cosas, necesitas buenas definiciones de aquello que vas a regular.
Formulaciones en la AI Act
Como muchos lectores de este blog conocerán, se encuentra en estos momentos en avanzado estado de tramitación la llamada AI Act, la ley europea aplicable a la inteligencia artificial.
Y, claro, si tengo razón en todo lo expuesto más arriba, el legislador europeo tiene un problema: no le queda otra que intentar definir inteligencia artificial…cuando no existe realmente una definición precisa y universalmente aceptada.
¿Qué está haciendo?
Según me cuentan compañer@s juristas de OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), y si lo he entendido bien, se encuentran en liza y sometidas a comentarios y supongo que negociaciones, dos formulaciones de lo que es la inteligencia artificial. Veámoslas y luego comento alguna percepción:
La propuesta de la Comisión Europea
En la propuesta elevada por la Comisión Europea, se define sistema de inteligencia artificial a lo siguiente:
artificial intelligence system’ (AI system) means software that is developed with one or more of the techniques and approaches listed in Annex I and can, for a given set of human-defined objectives, generate outputs such as content, predictions, recommendations, or decisions influencing the environments they interact with
En cierto sentido es una definición incompleta o que se completa por referencia, ya que las técnicas a que se refiere la definición no están en ellas contenidos sino en un anexo. Bueno, ese anexo, reza lo siguiente:
Machine learning approaches, including supervised, unsupervised and reinforcement learning, using a wide variety of methods including deep learning;
Logic- and knowledge-based approaches, including knowledge representation, inductive (logic) programming, knowledge bases, inference/deductive engines, (symbolic) reasoning and expert systems;
Statistical approaches, Bayesian estimation, search and optimization methods.
Esta es una de las formulaciones. Veamos la otra.
La propuesta del Parlamento Europeo
La enmienda que ha salido del Parlamento Europeo, es:
artificial intelligence system’ (AI system) means a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environment.
Ya no hay referencias a un anexo. Pero hay alguna diferencia más que analizaré en lo que queda de post.
El retorno a la teoría de conjuntos. Definiciones por extensión y por enumeración.
Cuando confronto estas dos definiciones, especialmente en lo relativo al anexo, no puedo evitar que vengan a mi memoria recuerdos infantiles de cuando en EGB me explicaban teoría de conjuntos y nos decían que había dos formas de definir un conjunto:
- Por extensión: en que de alguna forma dabas la regla que hacía que un elemento perteneciese o no a un conjunto.
- Por enumeración: simplemente, listabas los elementos del conjunto
En cierto sentido, salvando las distancias y tomándome alguna licencia, es como si la definición propuesta por el Parlamento Europeo actuase definiendo inteligencia artificial por extensión, mientras que la propuesta original de la Comisión Europea, con su anexo, lo hace por enumeración.
¿Qué es mejor?
Desde un punto de vista académico, teórico, conceptual, casi diría que intelectual, prefiero mil veces una definición por extensión (como es la del Parlamento). Si en algún futuro libro, que lo habrá, hago un nuevo intento de definir inteligencia artificial, será, sin duda, por extensión y no por enumeración.
En cierto sentido, una definición por enumeración me parece casi un truco burdo, una no definición. Quizá una explicación, pero no una definición.
Y sin embargo…
Enumeración y resiliencia de la ley
Y sin embargo, para este caso concreto, para la definición de inteligencia artificial en un texto legal, la ley de la inteligencia artificial europea, puede ser un gran acierto actuar por enumeración (usar el anexo).
¿Por qué?
Pues por dos motivos.
Porque, por un lado, como he dicho, no existe, al menos que yo sepa, una definición de inteligencia artificial completa, clara, realista y ampliamente aceptada. Un enfoque por enumeración parece más fácil que tenga consenso porque los expertos reconocerán las técnicas sin necesidad de empeñarse en reducirlas a un enunciado de difícil generalidad y convergencia.
Y quizá más importante: porque intentar definir inteligencia artificial es apuntar a un blanco móvil, algo que está en constante y muy rápida evolución. Y la apurada inclusión en el texto legal de las consideraciones específicas a la inteligencia artificial generativa y los modelos fundacionales, así lo acredita.
Aislar las técnicas que comprende la inteligencia artificial en un anexo, es un factor de resiliencia y de estabilidad en el tiempo de la propia ley. Si la evolución de la inteligencia artificial hace que se incluyan nuevas técnicas, pero sin desafiar ni los principios éticos, ni los niveles de riesgo ni las medidas de gobierno que plantea la ley, modificar la ley consistiría en modificar tan solo el anexo, permaneciendo inalterado el articulado, que no deja de ser el verdadero contenido de la ley.
Repito que no soy jurista, y desconozco los procedimientos de tramitación, pero el sentido común me dice que tramitar un cambio sólo en el anexo debería ser muchísimo más rápido y sencillo que decidir sobre el articulado.
Software versus sistema
Otra diferencia que aprecio es que en la propuesta de la Comisión Europea se considera a la Inteligencia Artificial como software mientras que en la enmienda del Parlamento Europeo nos habla de sistemas basados en máquinas.
Siendo realistas, la inteligencia artificial es básicamente software y no preveo que esto cambie demasiado. Por supuesto el software se ejecuta sobre un hardware pero, en general, podemos considerar a la inteligencia artificial como software.
Sin embargo, no es descartable que, por ejemplo, y por meros motivos técnicos y de eficiencia y rapidez, algún fabricante decidiese, por ejemplo, implementar un algoritmo en un circuito integrado o hacerlo (a lo mejor en algún caso ya se hace) con las operaciones matriciales y tensoriales habituales en machine learning.
Si hablas de sistema, abarcas ambas posibilidades, incluyes el software pero también la posibilidad de hardware. Por eso, y pensando de nuevo en la resiliencia de la ley, yo tendería a hablar de sistemas, más que de software.
Sobre la autonomía
Un tema que veo expresado de forma ambigua, y no es nada trivial, es la mención al concepto de autonomía en la propuesta del Parlamento Europeo.
Reconozco desconocer si algún texto complementario dentro de la propia ley o la enmienda, clarifica qué quiere decir con autonomía.
Así, por ejemplo, yo mismo, cuando en ‘La carrera digital‘ explico las características hablo de la autonomía de los algoritmos en el sentido de que, dado que son capaces de aprender de datos y experiencia, pueden, si así se ha previsto, evolucionar sin que sus creadores (desarrolladores) intervengan directamente.
Cuando en ‘Robots en la sombra‘ hablo de autonomía en relación a los robots, lo hago para indicar que al contrario que, por ejemplo, herramientas como un martillo neumático, un robot funciona sin ser ‘pilotado’ por un humano.
Aunque en lenguaje llano podemos pensar que utilizo autonomía de forma equivalente (independencia de los humanos) creo que hay matices prácticos y técnicos relevantes entre una concepción y otra de autonomía.
No tengo claro a qué se refiere exactamente con autonomía el texto del Parlamento Europeo, pero no es una palabra baladí en el ámbito en que se está utilizando así que, simplemente, dejo el aviso de que, si no se clarifica en alguna parte del texto que ahora no tengo en mente, debería hacerse.
La fijación de objetivos
En la formulación de la Comisión Europea, se dice que los objetivos del sistema de Inteligencia Artificial los fijan los humanos, mientras que esa referencia humana desaparece en la formulación del Parlamento Europeo que habla de objetivos explícitos e implícitos.
Sinceramente, creo más realista la formulación del Parlamento Europeo. Creo que la Comisión se dejó arrastrar por ese deseo de que los humanos estén al mando o de no asustar con la posibilidad de que las máquinas puedan hacer su voluntad.
Sin embargo, es más realista pensar que, aunque esperamos que en último término siempre haya alguna forma de control humano, muchos algoritmos y sistemas de inteligencia Artificial pueden poner sus propios objetivos o recibirlos de otro algoritmo o incluso un sistema no inteligente.
Así que me parece mejor formulación la del Parlamento.
Los entornos
Ambas propuestas acaban diciendo que los algoritmos actúan sobre su entorno. En el caso de la propuesta de la Comisión Europea, lo hace en general mientras que en la enmienda del Parlamento Europeo, matiza indicando que ese entorno puede ser físico o virtual.
Estrictamente hablando, no hay error y no hay contradicción en ninguna de las dos, solo más nivel de detalle en el caso de la propuesta del Parlamento Europeo.
Sin embargo, intuyo un riesgo de malentendido en la propuesta del Parlamento Europeo. Hablar de ‘influir en un entorno físico‘ conduce, creo, a pensar directamente en robótica, aunque, como también he comentado en este blog, la realidad física o no de los robots también es un elemento sometido a debate.
Por desgracia, creo que existe una cierta asimilación entre inteligencia artificial y robótica, y es cierto que son disciplinas que cada vez se entremezclan más. Sin embargo son claramente disciplinas diferenciadas. Así, existen muchos robots, muchos robots físicos, que no emplean inteligencia artificial y que ‘actúan sobre un entorno físico’.
Insisto, no es que me parezca realmente incorrecta la formulación del Parlamento Europeo en cuanto a los entornos pero, como digo, creo que incita a concepciones erróneas, por lo cual me quedaría, a pesar de ser más vaga, con la de la Comisión que habla únicamente de entornos
Uso de la Inteligencia Artificial
La parte final de ambas definiciones, de una forma, no muy detallada, nos habla de alguna forma de cómo se aplica la inteligencia artificial y menciona salidas como predicciones, recomendaciones o decisiones.
No es muy detallado, pero tampoco lo voy a criticar. Sí sugeriría, quizá, añadir a la lista, algo a sí como ‘contenidos‘ o ‘media‘, pensando en la últimamente omnipresente inteligencia artificial generativa.
Conclusiones
Como decía al principio del post, definir inteligencia artificial es realmente difícil, al menos eso creo yo, pero a un texto legal como es el caso de la AI Act, entiendo que no le queda otro remedio que hacerlo.
Visto así, alabo el esfuerzo, aunque sigo sin encontrar, tal vez no exista, esa definición de inteligencia artificial que realmente me satisfaga. Tampoco en la AI Act, lo siento.
Si algún jurista lee esto, y especialmente si es alguno o alguna implicado en la redacción de esa ley, espero que estas líneas le puedan arrojar alguna idea, alguna reflexión, alguna consideración, quizá alguna sugerencia de enmienda o alguna propuesta de decisión y, si así sucede, me encantaría que me lo hiciese saber.
Llevo tiempo dando vueltas a que uno de los principales problemas que acechan la comprensión, el entendimiento y la regulación de la denominada Inteligencia Artificial (IA) es, precisamente, su propia denominación.
Un nombre que, desde que el tema ha salido del ámbito científico, aviva debates tan mediáticos como generalmente desinformados, sobre máquinas pensantes, superinteligencias y singularidades. Unas especulaciones que alejan completamente el foco sobre lo que es fundamentalmente un debate técnico, en parte ético y, en mi opinión, además, de fuerte carga jurídica.
Cuando en 1948 Alan Turing planteó, en Intelligent Machinery, considerar la posibilidad de que una máquina mostrase un comportamiento inteligente, precisaba que consideraba a la “inteligencia” como un concepto muy vinculado a las emociones (emotional), en el sentido de que depende básicamente de la formación y situación de la persona que valora un comportamiento, y de las características propias del sujeto sometido a consideración.
Quizás por ello Turing no empleó esa denominación, ni siquiera posteriormente, cuando en 1950, propuso considerar si una máquina podía pensar. Es más, en “Computing machinery and intelligence” planteó su conocido “Juego de la imitación” (aka Test de Turing), precisamente para evitar entrar en un debate sobre el significado de los términos “máquina” y “pensar”. Turing no quiso entrar ese debate terminológico y prefirió remitir la apreciación de si una máquina es o no inteligente a una prueba práctica.
Y explicó el porqué: “May not machines carry out something which ought to be described as thinking but which is very different from what a man does?”. Separaba, creo, claramente, el resultado de la forma en que nosotros podamos denominar a ese resultado. Lo importante, creo interpretar a Turing (y perdón por la osadía), es el resultado generado por el sistema.
Históricamente, la denominación “Inteligencia Artificial” surgió en 1956, cuando John McCarthy, un profesor de matemáticas de la Universidad de Darmouth, en New Hampshire, organizó un curso de verano “con la idea de que cualquier aspecto del aprendizaje o cualquier otro rasgo de la inteligencia, podía, en principio, ser descrito con un nivel de detalle suficiente para ser simulado en una máquina”.
Su pretensión era que, en solamente unos pocos meses, “un grupo de científicos cuidadosamente seleccionados podrían conseguir avances significativo en aspectos tales como la comprensión del lenguaje, la abstracción de conceptos mediante aprendizaje o la resolución de problemas que hasta entonces solo habían sido resuelto por seres humanos”.
La historia cuenta que John McCarty, padre de la idea, necesitó denominar de alguna manera el proyecto, a efectos de solicitar una subvención a la fundación Rockefeller.
Y pretendiendo, como hemos indicado, centrar su estudio en la sistematización del conocimiento humano para que pudiese ser replicado por una máquina, por medio de programas de ordenador que pudiesen trabajar con el lenguaje humano, utilizando para ello redes neuronales, abstracciones y mecanismos de aprendizaje, McCarthy eligió la denominación, en parte por su carácter neutro pero también porque quería entrar en el debate sobre máquinas automátas, un tema liderado por entonces por Norbert Wiener, considerado el padre de la cibernética (Solomonoff, 2018).
El propio McCarthy admitió, años después, que el concepto no le gustaba particularmente, porque, después de todo, el objetivo era conseguir una inteligencia “genuina”, no “artificial”, pero “de alguna manera tenía que llamarlo” (Nilsson, 2012).
Sin embargo, pese a lo coyuntural del concepto, este cuajó y ha perdurado, intensamente hasta nuestros días.
Los objetivos perseguidos por McCarthy y sus compañeros de Darmouth tardaron décadas en comenzar a ser alcanzados. A los principios basados en un intento de replicar el conocimiento humano mediante lógica simbólica y reglas predeterminadas, siguieron sucesivos fracasos. La lógica simbólica no permite representar la complejidad del conocimiento humano, el sistema de reglas no puede escalar fuera de ámbitos extremadamente concretos y no existía capacidad de cómputo suficiente para inferir relaciones entre los datos y las reglas.
Para superar estas dificultades, siguieron los desarrollos basados en la lógica subsimbólica de mediados de los ochenta. Utilizando complejos sistemas de ecuaciones, estos sistemas intentaban obtener el conocimiento a través del tratamiento de grandes volúmenes de datos, mediante redes neuronales (un concepto anticipado por McCulloch y Pitts en 1943 y desarrollado posteriormente por Rosemblatt a mediados de los 50 del siglo pasado). Este procedimiento fracasó en sus inicios, por falta de datos y de capacidad de almacenamiento y cómputo, pero, con la inmensa cantidad de datos disponibles a través de las redes sociales desde comienzo del siglo XXI, el aumento de la capacidad de cómputo y el abaratamiento de los costes de almacenamiento, ha dado lugar al gran desarrollo del aprendizaje de máquinas basado en aprendizaje profundo que estamos conociendo en la actualidad y que ha permitido el desarrollo de novedades tan llamativas como ChatGPT.
Pero en 2023 la Inteligencia Artificial sigue careciendo de una definición comúnmente aceptada.
Y esto no deja de ser paradójico precisamente en el momento en el que los organismos europeos intentan regular esta materia.
Europa está intentando regular en profundidad y por primera vez una tecnología sobre la que no tiene una conceptualización clara. Resulta sumamente llamativo.
Efectivamente, al menos desde un punto de vista teórico, el derecho requiere de definiciones relativamente precisas para desplegar sus efectos. Pero, naturalmente esto no es así en todos los casos y ni muchos menos todos los aspectos de la realidad gozan de una definición.
Por eso, en España, nuestro Código Civil establece en el número 1 de su artículo 3 que “Las normas se interpretarán según el sentido propio de sus palabras, en relación con el contexto, los antecedentes históricos y legislativos y la realidad social del tiempo en que han de ser aplicadas, atendiendo fundamentalmente al espíritu y finalidad de aquellas”. Es decir, tirando de diccionario y situando su interpretación en la realidad del tiempo que vivimos.
Y en este sentido, no deja de ser curioso que el diccionario de la RAE ofrece una definición que no me parece mala: “Disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico».
Pero fuera de esta que podemos considerar anécdota (por su poca relevancia científica), el problema con la IA es que no existe definición única y homogénea, generalmente aceptada.
Tradicionalmente, como en su día postuló McCarthy, se pretendió que fuera una ciencia orientada a fabricar sistemas informáticos que se comportasen “de una forma que consideraríamos inteligente si un humano se comportase de esa forma”.
Es más, como apuntan López de Mántaras y Messeguer, desde el punto de vista teórico, el fin último de los estudiosos de esta disciplina es fabricar sistemas cuya inteligencia sea equiparable a la humana por ser indistinguible de la misma y aun considerándola una nueva clase de inteligencia no totalmente coincidente con la humana.
Sin embargo, como recientemente explicó el mismo López de Mántaras en una conferencia impartida en la sede del CSIC, hoy día “no tenemos nada que merezca el calificativo ‘inteligente’ en la IA”.
Como bien explicas, Ignacio, la primera versión que planteó la Comisión en 2021 era tan amplia que, reducida al absurdo, prácticamente convertía una hoja de Excel en una aplicación inteligente, con los problemas que ello implicaba.
Por esto, en 2022 el Consejo propuso una definición más en línea con la ofrecida por la OCDE en 2019, que, es la siguiente:
An AI system is a machine-based system that is capable of influencing the environment by producing an output (predictions, recommendations or decisions) for a given set of objectives. It uses machine and/or human-based data and inputs to (i) perceive real and/or virtual environments; (ii) abstract these perceptions into models through analysis in an automated manner (e.g., with machine learning), or manually; and (iii) use model inference to formulate options for outcomes. AI systems are designed to operate with varying levels of autonomy.
Es decir, según la OCDE:
– Los sistemas de IA se basan en máquinas (ordenadores)
– Que utilizan datos y entradas de origen humano o procedentes de otras máquinas, para 1) percibir entornos reales o virtuales, 2) abstraer esas percepciones en forma de modelos por medio de un análisis automatizado o manual y, 3) usar un modelo de inferencia para formular opciones o resultados
– Y que, en función de un objetivo determinado, son capaces de ofrecer un resultado (o efecto), en forma de una predicción, una recomendación o una decisión (eventualmente capaz de influir en su entorno).
– Todo ello con un cierto nivel de autonomía.
Se trata de una definición, a su vez, inspirada en la mucho más extensa (y, a mi juicio, precisa) del Grupo de Expertos de Alto Nivel sobre IA, creado por la Comisión Europea en 2018:
“Los sistemas de inteligencia artificial (IA) son sistemas de software (y en su caso también de hardware) diseñados por seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno a través de la adquisición de datos, interpretan los datos estructurados o no estructurados recogidos, razonan sobre el conocimiento, o procesan la información derivada de estos datos y deciden la(s) mejor(es) acción(es) que se debe(n) llevar a cabo para alcanzar el objetivo dado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo el entorno se ve afectado por sus acciones anteriores.
Como disciplina científica, la IA incluye varios enfoques y técnicas, tales como el aprendizaje automático o Machine Learning (del cual el aprendizaje profundo o Deep Learning y el aprendizaje de refuerzo o Reinforcement learning son ejemplos específicos), el razonamiento automático o Machine reasoning (que incluye la planificación, la programación, la representación y el razonamiento del conocimiento, la búsqueda y la optimización) y la robótica (que incluye el control, la percepción, los sensores y los actuadores, así como la integración de todas las demás técnicas en los sistemas cibernéticos)».
Con todo, nos encontramos en un momento decisivo, pues del concepto que se establezca de IA y de su alcance, dependerá en buena medida la eficacia de la regulación que está intentando elaborar la UE.
En todo caso, conviene subrayar también que, no sin cierta nueva dosis de paradoja, pese a su denominación, el Reglamento de IA no pretende regular esta tecnología, sino determinados usos de la misma que se considera que plantean unos riesgos inasumibles o que asumibles solo en determinadas condiciones de control y supervisión.
¿Cuál es mi visión?
1. Estamos hablando de un tipo de software dedicado a realizar tareas de descubrimiento de conocimiento o profundización del conocimiento no implícito contenido en grandes volúmenes de datos
2. En su definición teórica, estas tareas aspiran al alcanzar en algún momento un nivel de inteligencia sea equiparable a la humana, pero esta finalidad no tiene nada que ver con el estado actual de desarrollo de esta tecnología.
3. Deberíamos huir de una definición de esta tecnología basada en una noción de “inteligencia” similar o comparable de algún modo a la humana. Simplemente se trata de una tecnología informática con unas características muy avanzadas y diferenciadas.
4. Hablamos:
a. De un software, que puede ir asociado o no a una máquina mecánica con capacidad de movimiento
b. Capaz de obtener, con cierto nivel de autonomía, resultados en relación con materias muy complejas para una máquina y fuera del alcance de un ser humano, a partir de la gestión de grandes volúmenes de datos (como la identificación de patrones o datos no evidentes, a muy alta velocidad y/o mediante operaciones matemáticas muy complejas)
c. Esos resultados deben responder a unos objetivos prefijados por seres humanos
d. Dado que esas tecnologías pueden aplicarse en ámbitos o actividades susceptibles de afectar o perjudicar a los derechos de las personas, es necesario una regulación de la misma, preferiblemente a nivel internacional.
e. De cara a esa regulación, y ante la falta de una definición unificada, creo que deberíamos estar a los resultados de una tecnología similar (o que pueda surgir en el futuro), no a una definición probablemente imposible de alcanzar, más allá de unos criterios muy genéricos.
Gracias, Carlos. La verdad es que hacer una razonamiento tan extenso, tan erudito y tan interesante, que me cuesta sintetizar una respuesta. Muy interesante en general y con muy buena perspectiva que ayuda a entender dónde estamos realmente.
Centrándome en la parte final, en lo que es tu visión, en líneas generales estoy de acuerdo, pero haría algún matiz:
* En el punto 1 entiendo que te refieres a conocimiento ‘no explícito’ en lugar de ‘no implícito’ ¿no?
* En el punto 4.b, hablas de materias complejas fuera del alcance del ser humano. Y muchas veces es así, y probablemente cada vez será más así, pero en ámbitos como la percepción, puede ser suficiente en muchos casos, igualar lo que hace un humano…que no es poco.
* En el apartado 4.c pienso que, aunque parece deseable que los objetivos estén, en último términos, determinados por humanos, creo que es posible que en algunos casos, estén proporcionados por otras máquinas o algoritmos.
Matices aparte, da gusto recibir comentarios tan profundos, informados y bien orientados.