La inteligencia artificial ahora analiza lo que muestras con tu cámara o pantalla para guiarte en organización, creatividad y solución de problemas.
Google acaba de cambiar el juego en inteligencia artificial con el lanzamiento de Gemini Live, una innovadora función que permite conversaciones interactivas basadas en lo que capta tu cámara o muestra tu pantalla.
Disponible primero para suscriptores de Gemini Advanced en dispositivos Pixel 9 y Galaxy S25, esta tecnología entiende y responde en 45 idiomas mientras analiza imágenes en tiempo real.
Lee también
Presidenta Boluarte lidera sesión del Acuerdo Nacional
«Gemini Live transforma tu teléfono en un asistente visual que ve el mundo como tú», explicó un ejecutivo de Google durante la demostración.
La IA ya sorprende a usuarios con cinco aplicaciones revolucionarias: desde reorganizar armarios caóticos hasta resolver problemas técnicos domésticos con solo apuntar la cámara al objeto defectuoso.
Creativos y diseñadores celebran su capacidad para superar bloqueos artísticos: al mostrar texturas o paisajes, Gemini sugiere combinaciones de colores, composiciones fotográficas o incluso tramas narrativas.
Comercios electrónicos reportan que los compradores usan la función para comparar productos en vivo, recibiendo análisis de calidad y recomendaciones de estilo personalizadas.
El sistema brinda retroalimentación profesional instantánea para contenidos digitales: corrige diseños, optimiza publicaciones y mejora portfolios fotográficos.
«Es como tener un editor jefe y coach personal en tu bolsillo», comentó un usuario beta que redujo su tiempo de producción creativa en un 40%.
Google confirmó que Gemini Live llegará a todos los dispositivos Android en los próximos meses, integrando además funciones de accesibilidad para personas con discapacidad visual.
«Esto es solo el inicio de cómo redefiniremos la interacción humano-tecnología», adelantó el equipo desarrollador.