Al final de I/O, la conferencia anual de desarrolladores de Google en el Shoreline Amphitheater en Mountain View, el director ejecutivo de Google, Sundar Pichai, reveló que la compañía había dicho «IA» 121 veces. Ese fue, esencialmente, el quid de la conferencia de dos horas de Google: poner IA en cada aplicación y servicio de Google utilizado por más de dos mil millones de personas en todo el mundo. Aquí están todas las actualizaciones importantes del gran evento de Google, junto con algunos anuncios adicionales que se produjeron después de la conferencia magistral.
Gemini 1.5 Flash y actualizaciones para Gemini 1.5 Pro
Google ha anunciado un nuevo modelo de IA llamado Gemini 1.5 Flash, que, según afirma, está optimizado para ofrecer velocidad y eficiencia. Flash se encuentra entre Gemini 1.5 Pro y Gemini 1.5 Nano, que es el modelo más pequeño de la compañía que se ejecuta localmente en el dispositivo. Google dijo que creó Flash porque los desarrolladores querían un modelo más liviano y más barato que Gemini Pro para crear aplicaciones y servicios basados en inteligencia artificial, manteniendo al mismo tiempo algunas cosas como la ventana de contexto de un millón de tokens que distingue a Gemini Pro de los modelos de la competencia. A finales de este año, Google duplicará la ventana contextual de Gemini a dos millones de tokens, lo que significa que podrá procesar dos horas de vídeo, 22 horas de audio, más de 60.000 líneas de código o más de 1,4 millones de palabras al mismo tiempo. . .
Proyecto Astra
Google mostró el Proyecto Astra, una primera versión de un asistente universal impulsado por IA que, según el director ejecutivo de DeepMind de Google, Demis Hassabis, es la versión de Google de un agente de IA «que puede ser útil en la vida cotidiana».
En un vídeo que, según Google, fue filmado en una sola toma, un usuario de Astra camina por la oficina de Google en Londres sosteniendo su teléfono y apuntando con la cámara a varias cosas (un altavoz, algún código en una pizarra y afuera de una ventana) y tiene una imagen natural. conversación con la aplicación sobre cómo se ve. En uno de los momentos más impresionantes del vídeo, le dice correctamente al usuario dónde dejó sus gafas antes, sin que el usuario las toque.
El vídeo termina con un giro: cuando el usuario encuentra y usa las gafas perdidas, descubrimos que tiene un sistema de cámara incorporado y puede usar el Proyecto Astra para hablar sin problemas con el usuario, lo que tal vez indique que Google puede estar trabajando en un competidor de las gafas inteligentes Ray Ban de Meta.
Pregúntale a Google Fotos
Google Photos ya era inteligente a la hora de buscar imágenes o vídeos específicos, pero con la IA, Google está llevando las cosas al siguiente nivel. Si es suscriptor de Google One en los EE. UU., podrá hacerle a Google Photos una pregunta compleja como «muéstrame la mejor foto de cada parque nacional que he visitado» cuando la función se lance en los próximos meses. Google Photos utilizará la información del GPS, así como su propio criterio sobre qué es «mejor» para presentar opciones. También puedes pedirle a Google Photos que genere títulos para publicar fotos en las redes sociales.
Veo e Imagen 3
Los nuevos motores de creación de medios basados en IA de Google se llaman Veo e Imagen 3. Veo es la respuesta de Google a Sora de OpenAI. Puede producir vídeos de 1080p de “alta calidad” que pueden durar “más de un minuto”, dijo Google, y puede comprender conceptos cinematográficos como un lapso de tiempo.
Imagen 3, mientras tanto, es un generador de texto a imagen que, según Google, maneja el texto mejor que su versión anterior, Imagen 2. El resultado es el modelo de texto a imagen de mayor calidad de la compañía con un «increíble nivel de detalle» para » imágenes fotorrealistas y realistas” y menos artefactos, esencialmente comparándolo con DALLE-3 de OpenAI.
Grandes actualizaciones de la Búsqueda de Google
Google está realizando grandes cambios en la forma en que funciona fundamentalmente la Búsqueda. La mayoría de las actualizaciones anunciadas hoy, como la capacidad de hacer preguntas realmente complejas (“Encuentre los mejores estudios de yoga o pilates en Boston y muestre detalles sobre sus ofertas de introducción y los tiempos de caminata de Beacon Hill”) y use la búsqueda para planificar comidas y vacaciones obtenidas. No estará disponible a menos que opte por Search Labs, la plataforma de la compañía que permite a las personas probar funciones experimentales.
Pero una gran característica nueva que Google llama AI Overviews y que la compañía ha estado probando durante un año finalmente se está implementando para millones de personas en los EE. UU. La Búsqueda de Google ahora incluirá respuestas generadas por IA además de los resultados de forma predeterminada, y la compañía dice que llevará la función a más de mil millones de usuarios en todo el mundo para fin de año.
Géminis en Android
Google está integrando Gemini directamente en Android. Cuando se lance Android 15 a finales de este año, Gemini conocerá la aplicación, la imagen o el video que estás ejecutando y podrá acceder a él como una superposición y hacer preguntas específicas del contexto. ¿Dónde está el Asistente de Google que ya hace esto? ¡Quien sabe! Google no tocó el tema durante la conferencia magistral de hoy.
Mejoras en la duración de la batería de WearOS 5
Google aún no está listo para lanzar la última versión de su sistema operativo de reloj inteligente, pero promete algunas mejoras importantes en la duración de la batería cuando llegue. La compañía dijo que Wear OS 5 consumirá un 20% menos de energía que Wear OS 4 si un usuario corre un maratón. Wear OS 4 ya ha mejorado la duración de la batería de los relojes inteligentes que lo admiten, pero aún puede ser mucho mejor en la gestión de la energía de un dispositivo. Google también ha proporcionado a los desarrolladores una nueva guía sobre cómo ahorrar energía y batería para que puedan crear aplicaciones más eficientes.
Funciones antirrobo de Android 15
Es posible que la vista previa para desarrolladores de Android 15 haya estado en proceso durante meses, pero aún quedan funciones por venir. El bloqueo de detección de robo es una nueva característica de Android 15 que utilizará IA (allí está otra vez) para predecir robos de teléfonos y bloquear las cosas en consecuencia. Google dice que sus algoritmos pueden detectar movimientos asociados con el robo, como los asociados con levantar el teléfono y salir corriendo, andar en bicicleta o conducir. Si un dispositivo Android 15 identifica una de estas situaciones, la pantalla del teléfono se bloqueará rápidamente, lo que hará mucho más difícil que el ladrón del teléfono acceda a sus datos.
También ha habido muchas otras actualizaciones. Google dijo que agregaría marcas de agua digitales a videos y textos generados por IA, haría accesible a Gemini desde el panel lateral de Gmail y Docs, alimentaría a un compañero de equipo de IA virtual en Workspace, escucharía llamadas y detectaría si realmente se está equivocando. tiempo y mucho más.
Manténgase actualizado con todas las novedades de Google I/O 2024 ahora mismo aquí!
Actualización 15 de mayo a las 2:45 pm ET: Esta historia se actualizó después de su publicación para incluir detalles sobre los nuevos anuncios de Android 15 y WearOS 5 realizados después de la conferencia magistral de I/O 2024.
«Introvertido. Solucionador de problemas. Aficionado total a la cultura pop. Estudiante independiente. Creador».