Durante años, cada avance de la inteligencia artificial ha reavivado la misma pregunta: ¿podrían las máquinas llegar a ser conscientes? La discusión suele moverse entre el entusiasmo tecnológico y el escepticismo biológico, sin un punto intermedio convincente. Un nuevo trabajo científico plantea que tal vez el problema no sea si las máquinas son lo bastante potentes, sino si estamos usando el concepto equivocado de “computación” para entender la mente.
El estudio, publicado en la revista Neuroscience and Biobehavioral Reviews, propone una idea llamada computacionalismo biológico. Según esta perspectiva, el cerebro no ejecuta programas abstractos, sino que calcula a través de su propia materia física. Esto cambia de raíz cómo debemos pensar la conciencia, tanto humana como artificial.
Los autores, los neurocientíficos Borjan Milinkovic y Jaan Aru, no afirman que las máquinas jamás puedan ser conscientes. Lo que sostienen es que la conciencia podría depender de un tipo de computación que hoy no existe en los sistemas digitales. Y eso obliga a replantear muchas certezas asumidas en el debate actual. El cerebro no separa el “software” del “hardware”, porque ambos son lo mismo. En lugar de algoritmos abstractos que podrían ejecutarse en cualquier soporte, la mente surgiría de procesos físicos concretos, inseparables de la biología.
Este enfoque no pretende explicar qué es la conciencia en sí misma, sino algo más básico: por qué los cerebros podrían generar experiencia consciente y las máquinas actuales no. Para responder, el estudio examina cómo computa realmente el cerebro y por qué esa forma de cálculo es muy distinta a la de los ordenadores.

El viejo choque: mente como programa o mente como biología
El debate moderno sobre la conciencia suele dividirse en dos bandos. Uno sostiene que la conciencia es solo información bien organizada, sin importar el material que la procese. Esta postura, conocida como funcionalismo computacional, domina gran parte de la investigación en inteligencia artificial. Desde esta visión, si un sistema reproduce el mismo patrón funcional que un cerebro, debería generar conciencia. Las neuronas serían solo una forma contingente de implementar un algoritmo. En teoría, el mismo “programa mental” podría ejecutarse en silicio, en chips ópticos o en cualquier otro soporte.
En el extremo opuesto está el naturalismo biológico. Aquí se afirma que la conciencia depende de los procesos físicos propios de los sistemas vivos. No bastaría con copiar funciones: harían falta neuronas reales, metabolismo, química y una organización biológica concreta.
Ambas posturas explican parte del fenómeno, pero también dejan cabos sueltos. El funcionalismo ignora el papel del cuerpo y la energía, mientras que el biologicismo a veces no explica qué tiene de especial la biología. El resultado es un debate estancado.
El nuevo marco teórico intenta salir de ese bloqueo. Propone que la clave no está en elegir entre algoritmo o biología, sino en entender cómo computa un cerebro real. Y lo que emerge es una imagen mucho más compleja que la de un simple “ordenador de carne”.
Un cerebro no es un ordenador clásico
Los ordenadores modernos están diseñados para separar claramente sus partes. Hay memoria, hay procesador y hay instrucciones que se ejecutan paso a paso. Esta arquitectura facilita el control, la escalabilidad y la corrección de errores, pero también impone límites.
El cerebro funciona de otra manera. No existe una frontera clara entre donde se procesa la información y donde se almacena. Las neuronas cambian su estructura mientras operan, y la actividad modifica continuamente el propio sistema. Además, los cerebros no trabajan solo con señales discretas, como los unos y ceros digitales. Cada impulso nervioso ocurre dentro de un entorno continuo de campos eléctricos, gradientes químicos y cambios físicos constantes. Esa mezcla de eventos discretos y procesos continuos es esencial.
En informática, el tiempo de cálculo es una abstracción. En el cerebro, el tiempo físico es el tiempo de computación. Las señales no esperan a ser “procesadas”: se transforman mientras fluyen.
Este detalle es crucial para la teoría. Si la computación depende del sustrato físico, entonces no basta con simularla: hay que encarnarla. Un modelo digital puede imitar el resultado, pero no necesariamente el proceso que lo genera.

La importancia de las escalas y la energía
Otro punto central del estudio es la idea de escala. En el cerebro, los procesos microscópicos y los macroscópicos están profundamente entrelazados. Lo que ocurre a nivel molecular influye en redes enteras, y viceversa. En los ordenadores, los niveles están bien separados. Un programa no cambia la física del chip mientras se ejecuta. En el cerebro, en cambio, la actividad modifica la estructura y la estructura condiciona la actividad.
Esta integración entre escalas no es un defecto, sino una solución evolutiva. El cerebro opera bajo una restricción brutal: la energía es limitada. Consume mucho, pero aun así debe ser extremadamente eficiente.
Según el estudio, esta limitación energética obliga a integrar procesos en lugar de duplicarlos. La misma dinámica sirve para múltiples funciones, reduciendo costes metabólicos. Esa eficiencia podría ser clave para la experiencia consciente.
En este marco, la conciencia no sería un lujo computacional, sino una consecuencia de cómo el cerebro optimiza recursos. La experiencia consciente surgiría de un sistema que necesita coordinar información a gran escala sin gastar energía de más.

¿Qué implica esto para la inteligencia artificial?
La teoría no dice que la conciencia artificial sea imposible. Lo que sugiere es que escalar algoritmos digitales puede no ser suficiente. Por muy avanzados que sean, los sistemas actuales siguen basándose en una computación separable y abstracta.
Las redes neuronales modernas pueden simular funciones cerebrales con gran precisión. Pero simular no es lo mismo que realizar físicamente esos procesos. El estudio insiste en que esta diferencia importa.
Si la conciencia depende de computación híbrida, multiescala y ligada a la energía, entonces las máquinas futuras tendrían que cambiar de base. No bastaría con mejores programas, harían falta nuevos tipos de sistemas físicos. Algunos campos emergentes, como la computación neuromórfica o los dispositivos basados en procesos químicos, apuntan en esa dirección. Aun así, el estudio advierte que todavía estamos lejos de reproducir la organización del cerebro.
Quizás la pregunta correcta no sea qué algoritmo crea conciencia, sino qué tipo de materia puede hacerlo. Y esa pregunta, por ahora, sigue abierta.
Referencias
- Milinkovic, B., & Aru, J. (2025). On biological and artificial consciousness: A case for biological computationalism. Neuroscience & Biobehavioral Reviews, 106524. doi: 10.1016/j.neubiorev.2025.106524
Cortesía de Muy Interesante
Dejanos un comentario: