Hace unos 50.000 años en algún lugar del medio oriente hubo un encuentro. Un encuentro singular que cambió el rumbo de la historia de la humanidad para siempre.
Un individuo de la familia neandertal, la especie humana que había dominado durante milenios esa península de Asia que hoy llamamos Europa, se topó con su reto más importante.
La misma especie que se había enfrentado a infinidad de retos a lo largo de su existencia; depredadores, catástrofes naturales, pandemias y glaciaciones, ahora tenía un desafío superior. Se encontró con un nuevo “ser” tan inteligente como ellos, el Homo Sapiens, y lo que le había diferenciado como especie como la capacidad cognitiva, el razonamiento, el pensamiento simbólico o poder comunicarse con el habla ya no era una ventaja frente a ese nuevo “ser”.
Durante los siguientes 20.000 años ambas especies compartimos ecosistema, pero finalmente nuestra especie, el homo Sapiens, acabó por desplazar, absorber y extinguir a la especie aborigen del territorio europeo.
No sabemos a ciencia cierta si durante ese periodo hubo enfrentamientos o convivencia. Pero lo que es seguro es que hubo hibridación interespecie. Un pequeño porcentaje de los genes de algunos humanos actuales contiene alrededor de un 2% de ADN de estos Neandertales.
Las herramientas
El Sapiens, nuestra especie, no contento con sus capacidades biológicas, durante toda la historia de la humanidad ha creado tecnología para tratar de mejorarse. Creando herramientas que nos aumentan tanto física como intelectualmente y así ampliar aún más nuestra ventaja frente al resto de especies de animales.
Creamos hachas o cuchillos de silex como extensión de nuestros dientes. Arcos, flechas y ondas como extensión de nuestros brazos y así poder lanzar piedras, más fuerte y más lejos. Creamos carros tirados por animales y más tarde por motores de combustión como extensión de nuestras piernas y así poder trasportarnos más rápido y más lejos.
Pero no nos hemos conformado con querer mejorar nuestras capacidades físicas, también hemos querido aumentar nuestras capacidades cognitivas. Creamos la escritura, como extensión de nuestra memoria y capacidad de comunicación. Creamos las matemáticas para explicar el universo que nos rodea y en combinación con la escritura también para ser capaces de hacer cálculos más complejos y precisos.
Milenios más tarde, creamos las máquinas de cómputo y los ordenadores como extensión de nuestra capacidad de razonamiento y así con infinidad de avances tecnológicos que consiguen superar nuestras limitaciones cognitivas, hasta que finalmente creamos la Inteligencia Artificial.
Narrow AI and AGI
En este sentido, desde hace tiempo la IA ya es capaz de realizar ciertas tareas cognitivas mejor de lo que lo haría el humano más capacitado para realizar esa tarea concreta. Jugar a juegos como el ajedrez, traducir textos, detectar cánceres en radiografías o tomografías donde el ojo humano no puede ver, son algunos ejemplos.
Esto es lo que llamamos “Narrow artificial intelligence” o “inteligencia artificial Débil”, y cada tarea; jugar al ajedrez, detectar anomalías en imágenes o conducción autónoma requieren de algoritmos diferentes o al menos requieren de un entrenamiento diferente para cada uno de esos algoritmos.
Dicho de otra manera, si quisiéramos que un modelo de IA débil que sabe jugar al ajedrez mejor que el campeón mundial, conduzca un coche de manera autónoma, traduzca un texto o detecte cánceres en radiografías, sería imposible. Están preparados para hacer una sola tarea.
En definitiva, la IA débil, no son algoritmos generalistas o no pueden hacer tareas diferentes al propósito para el que han sido entrenados.
Sin embargo, con el cerebro humano no ocurre lo mismo. A un niño, le podemos enseñar a jugar al ajedrez y a ese mismo niño le podemos enseñar a hablar un idioma, a localizar animales en imágenes, a andar o a conducir un vehículo y aprenderá sin dificultad. El cerebro humano es una máquina preparada para aprender infinidad de tareas. Es generalista o al menos, aunque (el cerebro) tenga partes diferenciadas, está orquestado para funcionar como un único órgano generalista.
Si pudiéramos hacer eso con una máquina, habríamos alcanzado lo que llamamos Inteligencia Artificial General, AGI.
Hasta la aparición de una nueva arquitectura de redes neuronales artificiales, las “transformer” y con ellas, los llamados grandes modelos de lenguaje (LLM) basados en estas grandes redes neuronales artificiales, se pensaba que la AGI llegaría más allá del 2045 pero hoy en día ese punto está tan cercano como difuso.
Muchos piensan que la AGI será binaria, es decir que un modelo de IA la tendrá o no la tendrá. Algo así como tener vida. Aunque también existe cierto debate hay cierto consenso en que la vida es binaria, o se tiene vida como un animal o una planta o no se tiene, como una roca. Es decir, afirman que habrá un avance tecnológico que lo permitirá. Un punto singular en el tiempo y será un antes y un después. Metafóricamente sería algo así como la Abiogénesis de la AGI. Termino que utilizan los biólogos para describir (en una de las teorías) ese momento en que se creó vida a partir de materia inerte.
Pero otros, pensamos que la AGI será y es gradual. Incluso que gracias al avance tecnológico de estos grandes modelos de lenguaje (LLMs) hemos alcanzado ya algún grado de “generalidad” en la IA y con los nuevos modelos “razonadores” como o3 anunciados hace unos días por OpenAI, aun más.
Aunque no existe consenso en la definición de AGI, según la mayoría de los expertos y publicaciones, la AGI es una representación teórica de una inteligencia artificial capaz de resolver tareas complejas con capacidades cognitivas humanas generalistas.
Por lo tanto, como el cerebro de un niño, los cerebros digitales de hoy en día están ya preparados para hacer gran parte de las tareas cognitivas que son capaces de hacer los humanos. Es decir, son ya generalistas y cada vez lo son más. Pueden traducir textos, resolver problemas matemáticos, responder a preguntas mejor que el humano medio, crear imágenes y vídeos, entender un vídeo, programar código, resolver problemas matemáticos complejos, resumir textos, razonar e incluso aprender a andar si le proveemos de un “cuerpo” como el de un robot. Y todo ello sin haber sido específicamente entrenados para cada una de esas tareas, son propiedades emergentes.
La emergencia
Los sistemas emergentes son aquellos donde las propiedades del nuevo sistema resultante de la agrupación de otras pequeñas partes no pueden explicarse por las propiedades de sus partes constituyentes, sino únicamente a partir de su integración y carácter interactivo. Es decir, surgen capacidades que aparentemente no tienen ninguna relación con las propiedades de las partes que la constituyen.
Un ejemplo claro de un sistema emergente en el ámbito de la física son fenómenos como la humedad (una sola gota de agua no produce humedad) o la superconductividad de algunos materiales. Pero otro ejemplo más fácil de comprender podría ser el de una película emitida en una televisión led, frente a los elementos que componen las diferentes imágenes, los píxeles. La película resultante, el mensaje y el argumento que percibimos no se podría explicar con las propiedades de un píxel, que lo único que hace es cambiar de color con una frecuencia determinada y la orquestación de todos ellos, hace resultar en una historia que es capaz incluso de transmitir un mensaje con contenido complejo, cómico, romántico, dramático o didáctico…
En los humanos la consciencia, el razonamiento y la creatividad podrían también emerger de algún tipo de comportamiento colectivo de las neuronas de nuestra corteza cerebral.
Algo similar podría estar pasando en estos grandes modelos de lenguaje ya que, como hemos visto, surgen comportamientos y cualidades no esperadas como el razonamiento, la creatividad e incluso quizá algún grado de consciencia. Y por supuesto, entre ellas, la capacidad de realizar tareas generalistas, lo que nos lleva a afirmar que hemos alcanzado ya algún grado de AGI.
No es una herramienta
Esta vez no estamos creando una simple herramienta que nos aumenta como muchos afirman, sino un ente con agencia, con capacidad de tomar decisiones, con entidad en sí misma. Algo así como crear vida propia.
Esta capacidad de actuar intencionalmente, o con agencia, es lo que para muchos filósofos y pensadores ha distinguido a los seres humanos del resto de animales y por supuesto de las máquinas.
Un martillo o una llave inglesa son herramientas, incluso algo tan potente como una bomba atómica, pero ninguno de estos inventos tiene agencia, es decir, no tiene la capacidad de tomar decisiones. La agencia está en quien las crea o en quien las utiliza. Los humanos y en mi opinión, los animales, al menos con cierto grado.
Las aplicaciones de IA débil, como un sistema de reconocimiento de voz o un sistema que detecte cánceres en imágenes también son herramientas. Y al igual que un destornillador o un taladro están hechas para un propósito concreto y por tanto no tiene agencia o entidad propia. Pero la AGI es un invento muy diferente.
Y si esto es así, ¿por qué seguimos negando la evidencia? ¿Por qué seguimos diciendo que es una herramienta, que no tienen agencia o que la AGI no ha llegado?
En parte por desconocimiento, puede que por interés, pero principalmente por miedo, miedo a ser desplazados por esta nueva inteligencia, miedo al cambio, miedo a perder un modo de vida, miedo a la incertidumbre al ver que las habilidades cognitivas que se creían exclusivas de los humanos como razonar, la creatividad, la generalidad y probablemente cierto grado de consciencia ya han sido adquiridas por las máquinas y perdamos ese “status” de que el “humano” es un “ser” con características “mágicas”, “divinas” e irreplicables, que nos diferencian de las máquinas y del resto de las especies de animales.
Miedo similar al que tuvieron nuestros antepasados cuando Copérnico o Galileo afirmaron que la tierra no era el centro del universo o cuando Darwin propuso que el humano es fruto de la evolución y no de la construcción divina.
Al fin y al cabo, saber que nuestra mente puede ser replicada en una máquina nos hace abrir los ojos y de alguna manera estamos rechazando o poniendo en duda ese excepcionalismo del ser humano como cúspide de la inteligencia, pero eso tiene más de creencias que de ciencia.
La Superinteligencia
En noviembre, un informe al Congreso de los Estados Unidos, define la AGI como sistemas que igualan o superan las capacidades humanas en todos los dominios cognitivos y que superarían a las mentes humanas más capacitados para cada tarea. Como en esta, en muchas definiciones se está subiendo el listón, y en mi opinión, esta definición estaría más cerca del concepto que hoy se denomina como Superinteligencia Artificial (ASI). Pero sea como fuere la nomenclatura correcta, ese punto al que hace referencia esta nueva definición está a la vuelta de la esquina. Tanto Sam Altman (CEO de OpenAI) como Elon Musk o el recientemente galardonado con el Premio Nobel de Física Geoffrey Hinton coinciden en que llegará antes de final de la década y alguno incluso afirma que podría llegar en 2025.
El gran reto
50.000 años después de aquel encuentro entre esas 2 especies ha llegado este nuevo encuentro, pero esta vez, la nueva especie “inteligente”, no nace fruto de la evolución biológica, sino de la evolución tecnológica, en definitiva, de nuestra propia “inteligencia”.
Cómo será o cómo queremos que sea la convivencia con este nuevo ente es el mayor reto al que nos vamos a enfrentar como especie. Puede que haya convivencia, enfrentamiento o probablemente, como ocurrió con los Sapiens y los Neandertales, habrá hibridación interespecie.
Cortesía de Muy Interesante
Dejanos un comentario: