Oriol Vinyals, vicepresidente de Google DeepMind: “No entendemos bien ni nuestro cerebro ni la IA”

Cuando solo era un niño, a Oriol Vinyals (Sabadell, 1983) le gustaba hacerle preguntas sobre matemáticas a su padre mientras subían la montaña de La Mola. De adolescente, iba a cibercafés a jugar al videojuego StarCraft y quedó fascinado con la película 2001: Una odisea del espacio. Poco imaginaba que esa pasión sería su puerta de entrada a Google. Hoy, a sus 42 años, es una reputada autoridad mundial en el aprendizaje profundo (deep learning), una de las técnicas más punteras de la inteligencia artificial.

Este matemático e ingeniero computacional catalán es, desde 2016, vicepresidente de investigación de Google DeepMind, el célebre laboratorio de IA del gigante tecnológico californiano. Desde ahí, lidera el desarrollo técnico de Gemini, rival de ChatGPT y actualmente el modelo de lenguaje más potente que existe. La influencia de sus investigaciones queda fuera de duda: es el quinto científico más citado del mundo en su ámbito.

Vinyals atiende a EL PERIÓDICO antes de ser investido doctor honoris causa por la Universitat Pompeu Fabra (UPF), alma mater en la que curso una doble titulación antes de doctorarse en la Universidad de California en Berkeley y, de ahí, dar el salto a Silicon Valley.

La semana pasada lanzasteis Gemini 3, vuestro modelo de IA más potente, e incluso Sam Altman ha reconocido internamente que el avance de Google podría “crear algunos obstáculos económicos temporales” en OpenAI. ¿Qué salto supone?

La fórmula básica no cambia mucho. Hemos logrado un salto importante en el preentrenamiento, la fase en que hacemos que el modelo entienda todos los datos de internet y sus correlaciones, gracias a cambios en la arquitectura. Y esa es la parte más importante. También hemos mejorado muchísimo en el entrenamiento posterior, en el que se adapta al uso que dará a los usuarios, por ejemplo para hacer de chatbot.

¿Y en qué sigue fallando?

El post-training es el campo en el que hay más espacio para mejorar. Aún nos queda mucho por descubrir, más si lo comparamos con los sistemas que hemos creado para jugar a juegos. Con los grandes modelos de lenguaje (LLM), mejorar el rendimiento no trata de ganar una partida, sino de determinar si el resultado que ha dado Gemini a tu pregunta es bueno, y eso es mucho más difícil.

Las ‘apps’ de DeepSeek, ChatGPT y Google Gemini / Andrey Rudakov / Bloomberg

Lanzáis modelos cada vez más potentes. ¿Se puede seguir escalando la IA si hay un cuello de botella de buenos datos para entrenarlos?

No debemos pensar en una IA cada vez más y más grande, si bien aumentar el tamaño ayuda. Si pones el modelo al alcance de millones de personas, como hace Google, no quieres que sean muy grandes porque entonces no puedes comercializarlos a precios baratos para los usuarios. Una de las formas de escalarlo es a través de innovaciones científicas para que gaste menos energía en generar cada palabra. Es cierto que ya estamos utilizando prácticamente todos los datos de calidad que hay en internet. Pero aún encontramos vías para que cada modelo sea mejor que el anterior.

Ya estamos utilizando prácticamente todos los datos de calidad que hay en internet

¿Es una opción entrenar los modelos con datos generados por IA?

Si, es un tema que estamos investigando y es una buena idea que, en algunos aspectos, está dando buenos resultados. Pero también puede propagar los errores de otros modelos y eso es problemático porque podría empeorar las IA futuras.

El informe State of AI 2025 advierte que la energía es otro cuello de botella.

El coste energético es muy alto, pero es un cambio bueno porque significa que la tecnología está llegando a todo el mundo. No es un coste excepcional porque hay microprocesadores cada vez más eficientes. Las empresas que quieren crear IA también están interesadas en tener sostenibilidad económica e invierten en formas de reducir ese coste energético. Y gracias a la tecnología será cada vez más bajo.

Centro datos de Google, junto al río Columbia, en EEUU

Centro datos de Google, junto al río Columbia, en EEUU / warewater

Pero, como indica la Paradoja de Jevons, la introducción de tecnologías con mayor eficiencia puede desembocar en un mayor consumo total de energía.

Si, es cierto. Cuando añades un carril a la autopista más coches circulan por ahí. Pero es un buen problema, significa que la gente quiere usar tu tecnología. En términos de escalabilidad, ya hay tanta gente que usa IA como el buscador de Google. Puede ser que la demanda de energía aumente, pero nosotros hemos tenido la previsión de que nuestros centros de datos sean neutrales en CO2. Ahora, es posible que, si la demanda es muy, muy grande, Google haya subestimado un poco el aumento computacional de los próximos años. También puede ser que haya un avance para responder a esa necesidad de energía. Hay varios motivos para ser optimistas, pero siempre vigilando.

Es posible que, si la demanda de energía es muy, muy grande, Google haya subestimado un poco el aumento computacional de los próximos años

Ramón López de Mántaras, pionero de la IA en España, me explicó que las llamadas alucinaciones, los errores, son un problema “inherente” de la IA generativa. ¿No tienen cura?

Es el problema, quizás inherente, de entrenar los modelos con datos de internet. Puede que nunca se solucione perfectamente, pero sabemos como mejorar cada generación de IA. ¿Será perfecta al 100%? Imposible. Pero podemos minimizar los errores. Hay mucho margen de mejora y primero se corregirá en inglés que en castellano o catalán.

En DeepMind habéis logrado crear sistemas que aprenden de su experiencia para superar a los humanos en juegos como StarCraft o Go. ¿Es eso extrapolable a una IA que entienda el mundo?

Es más difícil porque el mundo es más complejo. Evaluar si ganas o pierdes una partida de un juego de mesa es fácil, pero es mucho más complicado cuando quieres ayudar a usuarios muy distintos con una infinidad de cosas. Ordenar una tarea concreta como ganar es fácil, pero hacer lo que quiera el usuario —escribir un poema, resumir un libro, dibujar algo…— no lo es tanto. La dificultad técnica está en saber cómo evaluar cada LLM, pero también en definir matemáticamente cada tarea.

Demis Hassabis, director ejecutivo de Google DeepMind, asegura que la IA está “aprendiendo a sentir” y que podría igualar o superar la cognición humana antes de 2030. ¿Qué evidencias hay de ello?

Los modelos son simulaciones probabilísticas que aprenden de cómo nos comunicamos los humanos, así que lo que hace es simular que siente, que tiene emociones. Hay algunos tan avanzados en lenguaje que se les ve una cierta personalidad, aunque no termina de ser un humano. Esa simulación nos ayuda a entender la tecnología de una forma más humana y menos como una máquina. Creo que será importante tener una conexión emocional a cierto alto nivel con la IA. Si este artefacto hace que la comunicación sea más óptima, nos guste más y nos ayude a solucionar problemas del día a día, entonces será bienvenido. Y quizás nunca sabremos si hay algo bajo la superfície de las palabras que el modelo escribe.

Los modelos son simulaciones probabilísticas que aprenden de cómo nos comunicamos los humanos, así que lo que hacen es simular que tienen emociones

¿Dónde traza la frontera entre comprensión y simulación?

Es muy difícil. Aún no entendemos del todo cómo funciona el cerebro humano, así que con un sistema nuevo costará mucho. Es una cuestión emocionante. Hoy, esas emociones son claramente simuladas.

Estáis desarrollando sistemas que son cajas negras. ¿No sabéis por qué responden lo que responden?

Cuando el sistema falla puedes tratar de entender a qué se debe. Por ejemplo, algo divertido es que sabemos que si se equivoca al identificar cuántas erres tiene la palabra strawberry eso puede deberse a que internet está lleno de estos errores y al entrenar el modelo con los datos de internet se crea una señal equivocada que no da la respuesta correcta. Pero si observamos el modelo y mapeamos lo que se le pide y lo que responde entonces hay mucha menos claridad, como también pasa con el funcionamiento de nuestra mente. No entendemos demasiado nuestro cerebro tras siglos de estudio y tampoco entendemos bien estos sistemas nuevos.

Demis Hassabis y John M. Jumper, de Google DeepMind, ganadores del Premio Nobel de Química

Demis Hassabis y John M. Jumper, de Google DeepMind, ganadores del Premio Nobel de Química / Toby Melville / Reuters

Este fin de semana se cumplen tres años del lanzamiento de ChatGPT, que ha acelerado una carrera comercial en el sector. ¿Cómo ha cambiado tu vida?

Desde que empecé en Google en 2013 he vivido varias fases. En los primeros días todo era muy académico, de investigar, publicar papers y demostrar a los demás que esta tecnología era algo bueno. Cuando entré en DeepMind en 2016 las investigaciones ya eran algo más grandes. ChatGPT fue muy mainstream; creó una nueva fuente de usuarios y abrió la puerta a nuevas inversiones en los proyectos que estaba liderando. Ahora, hay más intensidad y estamos más centrados. El modelo [de IA] es el motor de los productos que ahora Google distribuye. Así que todos los que estamos en el proyecto estamos a tope. Incluso Serguéi [Brin cofundador de Google] viene cada día a la oficina y Sundar [Pichai, director general] pasa horas charlando con el equipo.

Desde ChatGPT, hay más intensidad. Incluso Serguéi Brin [cofundador de Google] viene cada día a la oficina.

¿Cómo explicarías tu cargo a alguien que no sepa de IA?

Resumiendo mucho, ayudo al equipo que desarrolla modelos de IA a priorizar qué ideas se investigan.

Desde la industria se insiste en convertir la IA en un ‘agente’ que lo haga todo por tí. ¿Qué visión queréis lograr?

En el mundo físico hay la robótica, que siempre parece que creará algo así en los próximos cinco años y nunca acaba pasando. En el digital, el modelo que impulsamos puede tener acceso a internet y a tu ordenador para hacer cosas increíbles, como calendarizar una reunión u organizar un viaje. Más allá de cuestiones de usabilidad y seguridad que estamos estudiando, creo que estos ‘agentes’ se popularizarán en los próximos años. Ya se aplica en la ciencia —yo mismo— y esa automatización puede aumentar a los científicos e impulsar saltos masivos en nichos como la IA, los supermateriales o la energía de fusión.

El gran logro de DeepMind es AlphaFold, que ganó el Premio Nobel de Química. ¿Es la ciencia el campo más fértil per la IA?

Existe el sesgo de que aplicamos la IA a la ciencia porque quienes la hemos creado somos científicos. Pero también hay bastantes oportunidades en áreas con mucho impacto.

Suscríbete para seguir leyendo

Cortesía de El Periodico



Dejanos un comentario: