Una nueva actualización de Gemini hará que el asistente de Inteligencia Artificial pueda tomar decisiones solo con información visual, ya sea a través de lo que estás haciendo en tu celular o bien, mostrándole lo que hay a tu alrededor con tu cámara.
Primero fueron interacciones con textos, luego a través de la voz y ahora la Inteligencia Artificial es capaz de analizar el mundo a través de imágenes en tiempo real. Al menos eso es lo que demostró Google sobre Gemini, su asistente de IA que habita en los teléfonos Android y cuyas principales novedades se están presentando en el Mobile World Congress de Barcelona.
La compañía presentó una nueva función de la versión en tiempo real de Gemini, conocida como Gemini Live, con la cual es posible conversar con Gemini y hacer preguntas basadas en lo que le estás mostrando en el teléfono, ya sea navegando por internet, con un video o a través de tu cámara.
Actualmente, los asistentes de IA son capaces de tomar una fotografía previa y responder con un análisis de lo que se muestra, pero lo que promete hacer Gemini ahora es responder en tiempo real, analizando imágenes instantáneamente y proporcionando respuestas basadas en lo que se está viendo en la pantalla en ese preciso momento.
En las dos demostraciones compartidas por Google:En la primera, un usuario que está en un sitio de ropa le pregunta a Gemini qué buenas ideas de outfits se pueden armar con los pantalones que está buscando.
En la segunda, con Gemini Live con Video, le preguntan al asistente qué colores deberían usarse para decorar una casa, a partir de un set mostrado por el usuario.
Estas funciones llegarán a los usuarios de Gemini Advanced que están suscritos a Google One AI Premium durante el mes de marzo.