20 de mayo de 2025 – Mountain View, California
Google ha inaugurado su conferencia anual para desarrolladores, Google I/O 2025, presentando una serie de innovaciones centradas en la inteligencia artificial. El evento destaca la evolución de Gemini, la IA de Google, y su integración en diversas plataformas y herramientas, marcando un paso significativo hacia una asistencia más personalizada y proactiva.
Gemini 2.5 y el modo Deep Think: hacia una IA más reflexiva
La versión 2.5 de Gemini introduce el modo «Deep Think», diseñado para mejorar el razonamiento de la IA al considerar múltiples respuestas antes de emitir una. Esta función, aún en fase de pruebas, promete un rendimiento superior en tareas complejas y estará disponible inicialmente para suscriptores del plan AI Ultra de Google. 9to5Google
Veo 3 e Imagen 4: creatividad audiovisual potenciada por IA
Google ha lanzado Veo 3, su modelo de generación de video que ahora incluye capacidades de audio, permitiendo la creación de videos con efectos de sonido y diálogos realistas. Junto a esto, Imagen 4 mejora la generación de imágenes, ofreciendo detalles más precisos y soporte para estilos tanto fotorrealistas como abstractos. Ambas herramientas están integradas en la nueva aplicación Flow, diseñada para facilitar la creación de contenido audiovisual mediante IA. The Verge
Project Astra: asistencia multimodal en tiempo real
Project Astra representa el esfuerzo de Google por ofrecer una experiencia de IA multimodal y de baja latencia. Esta tecnología permite a Gemini interactuar en tiempo real con entradas de texto, audio e imagen, mejorando la asistencia en aplicaciones como Google Search y la app de Gemini. Además, se están desarrollando prototipos de gafas inteligentes en colaboración con empresas como Samsung y Warby Parker, integrando Astra para ofrecer asistencia visual directa.
Gemini Live y AI Mode: interacción más natural y personalizada
Gemini Live introduce capacidades de cámara y compartición de pantalla en dispositivos iOS y Android, permitiendo conversaciones verbales casi en tiempo real con la IA. Por su parte, AI Mode en Google Search permite realizar consultas complejas utilizando datos deportivos y financieros, y ofrece opciones de prueba virtual para compras de ropa.9to5Google+19to5Google+1The Verge+1investors.com+1
Innovaciones en Android y Wear OS: Material 3 Expressive
En el ámbito de Android, se presentó Material 3 Expressive, un nuevo lenguaje de diseño que aporta mayor personalización y animaciones más fluidas. Este diseño estará disponible en Android 16 y Wear OS 6, ofreciendo una experiencia de usuario más intuitiva y atractiva.
Nuevas herramientas para desarrolladores: Stitch y Jules
Google ha introducido Stitch, una herramienta impulsada por IA que ayuda en el diseño de interfaces de aplicaciones web y móviles, generando elementos de UI y código necesario. Además, Jules, un asistente de codificación asincrónico, facilita la comprensión de código complejo y la gestión de tareas de programación.
Google I/O 2025 destaca por su enfoque en la integración de la inteligencia artificial en múltiples aspectos de la tecnología cotidiana. Con avances en modelos de IA, herramientas creativas y mejoras en la interacción usuario-IA, Google reafirma su compromiso con el desarrollo de una asistencia más inteligente y personalizada.
Add a Comment