Google no solo quiere que su IA te ayude a buscar: también que sea tu asistente personal, pueda vestirte y hasta crear películas

El Google I/O 2025 ya está aquí, y como no podía ser de otra forma, está centrado completamente en las capacidades de la inteligencia artificial dentro de los distintos productos de Google, para así tener un poco de todo: desde mejores capacidades para Gemini, con todo y su integración como asistente, nuevos modelos para generación de contenido multimedia y código.

Sin embargo, también hay más novedades, como la llegada del modo de IA al buscador, anunciado como prueba recientemente; la expansión de los AI Overviews a más países; o nuevas funciones como la posibilidad de probarse ropa virtualmente con IA, así como nuevos planes de suscripción para los modelos más potentes de Google, funciones mejoradas de comunicación en videollamadas con traducción instantánea, y la integración de Android XR, con todo y Gemini, en lentes inteligentes y audífonos.

Mejoras para Gemini

Empecemos por Gemini. Google indica que todos sus modelos 2.5 se han actualizado, lo que significa que ahora se desempeñan mejor que nunca y hasta tienen mayores capacidades.

Todos los modelos de Gemini 2.5 ahora cuentan con salidas nativas de audio y soporte para permitir a los usuarios variar el tono, acento y estilo de habla de la IA, por ejemplo, pedirle que use una “voz dramática cuando cuenta una historia”.

De la mano de esta nueva versión de Gemini 2.5 llegan novedades como “Diálogo afectivo”, donde el modelo detecta las emociones en la voz del usuario y responde en consecuencia; o “Audio proactivo”, que ignora conversaciones previas y sabe exactamente cuándo responder. Además, soporta hasta dos voces con las cuales puede interactuar.

En el caso de Gemini 2.5 Flash, ahora es más potente y eficiente, además de ser más rápido, con mejoras en indicadores de razonamiento, multimodalidad, código y ventanas de contexto amplias que usan entre 20 y 30% menos tokens. Ya está disponible no solo para los usuarios de la app de Gemini, sino también en Google AI Studio y Vertex AI para empresas.

Mientras tanto, Gemini 2.5 Pro ahora destaca por sus capacidades para la codificación, además de ser el modelo más potente para tareas de aprendizaje.

Gemini más integrado y accesible

Más sobre Gemini. La IA de Google ahora también es más personal, proactiva y potente, con capacidades como que en su app para iOS y Android ahora se podrá compartir la cámara y la pantalla en Gemini Live, gratis para todos. Próximamente, también será posible crear eventos en el Calendario con la IA, además de obtener detalles desde Maps, tareas o notas gracias a nuevas integraciones.

Como parte de sus funciones de asistente, llegan también mejoras a Deep Research, su búsqueda profunda, que ahora permite añadir fuentes propias a una investigación. Con Canvas, será posible crear elementos y contenido alrededor de cualquier material proporcionado, entre ellos una especie de podcast con IA, como si se tratara de la capacidad de NotebookLM, además de tener la posibilidad de generar cuestionarios interactivos desde Gemini, y con “Contexto Personal”, ahora Gemini tendrá la capacidad de recordar búsquedas y afinar resultados al historial de consultas de cada usuario.

De la mano de todas estas mejoras, ahora hay nuevos planes para las versiones más potentes de la IA: Google AI Pro y Google AI Ultra (hasta con 30 TB de almacenamiento), que permiten acceso a funciones adicionales, límites más altos de procesamiento y acceso anticipado a herramientas complementarias.

Además, ahora Gemini no estará disponible solamente en su propia aplicación o en la web. Google comenzará a integrarla directamente en Chrome, aunque esta función llegará primero para los suscriptores de los planes Pro y Ultra en Estados Unidos, en inglés, para Windows y Mac. En el futuro, será posible interactuar con pestañas y navegar por sitios web, aunque de momento solo funciona para explicar información que se ve en internet.

Generación de contenido multimedia: Veo 3, Imagen 4 y Flow

En el área de inteligencia artificial, no podían faltar las herramientas Veo 3 e Imagen 4, sus modelos para la creación de video e imágenes generativas, además de una nueva herramienta llamada Flow.

Con Veo 3 llega la posibilidad de generar video y también audio contextual, como ruido de tráfico en una ciudad, aves cantando en un parque o incluso diálogos entre personajes. También mejora las físicas realistas y la sincronización de labios, todo a partir de un prompt. Veo 3 está disponible por ahora únicamente para suscriptores de Ultra en EE. UU., en la app y en Flow.

Por su parte, Imagen 4 es el modelo para creación de imágenes, ahora con mayor velocidad de respuesta y precisión, especialmente en detalles como materiales, gotas de agua o pelaje de animales. Se destaca tanto en contenido fotorrealista como en estilos abstractos, con capacidad para generar imágenes en resoluciones de hasta 2K, listas para impresión o presentaciones. También están optimizados en ortografía y tipografía, lo que permite crear fácilmente desde cartas hasta cómics.

En los elementos multimedia también se suma Flow, una nueva herramienta de IA para cine, diseñada para trabajar con Veo. Permite crear clips cinematográficos, escenas e historias con control total de cámara, locaciones, personajes, objetos y estilos, todo a partir de lenguaje natural. Está disponible por ahora solo para usuarios de Google AI Pro y Ultra, únicamente en Estados Unidos.

Por último, llega Lyria 2, basada en Music AI Sandbox, pensada para músicos, productores y compositores, que les permite explorar nuevas ideas musicales. Está disponible para YouTube Shorts o como herramienta independiente en Lyria RealTime, enfocada en generación de música con IA.

Para poder manejar todo este contenido generado por inteligencia artificial, Google también ha desarrollado un nuevo detector de contenido generado por IA, llamado SynthID Detector, con el que busca reducir la desinformación o las atribuciones erróneas de autoría.

Búsqueda con IA más profunda y personalizada

Pasemos al apartado de búsquedas. Para empezar, Google anunció que su función AI Overviews, diseñada para responder preguntas directas al inicio de una búsqueda (sin necesidad de entrar a un sitio web), se expandirá a más de 200 países y 40 idiomas. Esta función, lanzada en 2024 y ya disponible en México, permite obtener resúmenes generados por IA como primer resultado de consulta.

También llega oficialmente el AI Mode, aunque por ahora solo en Estados Unidos. Se trata de una herramienta que combina razonamiento avanzado y capacidades multimodales para dar seguimiento a preguntas y mostrar enlaces útiles. Este modo estará disponible a través de un botón en la barra de búsqueda y en la página principal de Google.

Esto permitirá que, ante preguntas directas, la IA pueda iniciar la búsqueda de contenido de forma más profunda que con el método tradicional, para encontrar resultados más útiles. Se podrá combinar con herramientas como Deep Search, Live (derivado del proyecto Astra), o búsquedas en tiempo real con la cámara del dispositivo.

Además, será posible realizar acciones como comprar boletos o buscar productos con base en el contexto personal del usuario, y visualizar mejor los datos a través de tablas y gráficas generadas automáticamente por la IA.

En desarrollo…

Cortesía de Xataka



Dejanos un comentario: