Google Lens, la popular herramienta de búsqueda visual de Google, ha experimentado una evolución impresionante en 2024, especialmente con la introducción de capacidades basadas en inteligencia artificial que permiten realizar búsquedas tanto en imágenes como en videos.

Estas nuevas funcionalidades no solo mejoran la precisión de los resultados de búsqueda, sino que también abren un abanico de posibilidades para resolver problemas del día a día y optimizar la experiencia de compra online.

A continuación, explicamos las principales novedades de Google Lens y cómo impactarán en la manera en que interactuamos con la tecnología.

Búsquedas con video

Hasta hace poco, Google Lens solo permitía realizar búsquedas a partir de imágenes estáticas, lo que ya facilitaba a los usuarios identificar objetos, plantas, animales y monumentos, entre otras cosas, simplemente con una foto.

Sin embargo, ahora es posible realizar búsquedas utilizando videos, lo que supone un avance significativo en la capacidad de la herramienta para entender el contexto y ofrecer respuestas más detalladas.

Esta nueva funcionalidad, que fue presentada en la conferencia I/O de Google en mayo de 2024 y lanzada en octubre, permite a los usuarios grabar videos directamente desde la aplicación y formular preguntas sobre lo que aparece en la pantalla.

Por ejemplo, si estás grabando un video de tus plantas y notas que no tienen buen aspecto puedes preguntar a Google Lens «¿por qué están así mis plantas?» y la IA de Google procesará tanto el video como el audio para ofrecerte una respuesta en tiempo real.

Multimodalidad en la búsqueda

La capacidad de buscar con vídeos es especialmente útil para situaciones en las que describir un problema solamente mediante palabras o con una imagen fija podría ser complicado.

El aspecto más innovador es que Google Lens no solo se limita a identificar objetos en los videos, sino que también utiliza el modelo de inteligencia artificial Gemini de Google.

Gemini para analizar el contenido y proporcionar respuestas basadas en un resumen de información disponible en la web, conocido como AI Overviews. Esto facilita una comprensión más profunda y dinámica de lo que se está buscando.

El uso de video añade una capa multimodal a la búsqueda, ya que combina imágenes en movimiento, texto y audio.

Esto no solo permite a Google Lens ofrecer resultados más completos, sino que también reduce la necesidad de que los usuarios formulen preguntas adicionales o aclaren sus consultas.

Por ejemplo, en lugar de intentar describir un error en el panel del coche, puedes simplemente grabar un video y dejar que la IA de Google interprete el conjunto para ofrecerte una solución.

Integración mejorada de compras en Google Lens

Otra de las grandes novedades de Google Lens en 2024 es su integración mejorada con las plataformas de comercio electrónico.

Google ha reconocido el potencial de Lens como una herramienta para la identificación de productos y, como resultado, ha optimizado su funcionalidad para facilitar la compra online.

Ahora, cuando Lens identifica un producto en una imagen o video, no solo muestra información básica, sino que también proporciona detalles adicionales como el precio, reseñas de usuarios y ofertas disponibles en diferentes tiendas.

Esta función, conocida como Shopping Graph, se ha diseñado para funcionar en categorías clave como ropa, electrónica, juguetes y productos de belleza, y permite a los usuarios comparar precios y tomar decisiones de compra más informadas.

Por ejemplo, si ves una mochila que te gusta, basta con tomar una foto con Lens para recibir toda la información necesaria, incluidas las mejores ofertas para comprarla online.

Además, Lens permite realizar búsquedas específicas relacionadas con productos. Si ves un sofá en una tienda que te gusta, pero lo necesitas en otro color, solo tienes que tomar una foto y escribir en el cuadro de búsqueda «color rojo».

La IA de Google se encargará de encontrar opciones disponibles que coincidan con tu búsqueda personalizada.

Voz y texto: Combinando imágenes con preguntas habladas

Además de las búsquedas basadas en video y compras, Google Lens ha mejorado sus capacidades de búsqueda en imágenes fijas añadiendo la posibilidad de hacer preguntas habladas.

Esta funcionalidad está disponible en inglés y permite a los usuarios realizar búsquedas en las que se combine una imagen con una pregunta oral.

Esto es particularmente útil para aquellos casos en los que la información visual no es suficiente por sí sola y es necesario proporcionar más contexto.

Así, podrías tomar una foto de una planta y preguntar «¿cuánta agua necesita esta planta?» para obtener una respuesta específica.

¿Qué podemos esperar del futuro?

Las nuevas características de Google Lens son solo el principio de lo que Google tiene planeado para la búsqueda visual y la inteligencia artificial.

La posibilidad de realizar búsquedas mediante video abre la puerta a futuras aplicaciones en áreas como la realidad aumentada y la asistencia en tiempo real

De hecho, otras compañías como Meta y OpenAI ya están trabajando en herramientas similares, lo que sugiere que estamos en el inicio de una carrera por desarrollar tecnologías capaces de comprender el mundo a través de imágenes en movimiento.

Con la capacidad de procesar videos y ofrecer respuestas mediante inteligencia artificial, la herramienta se posiciona como un asistente visual poderoso que nos ayuda a resolver problemas cotidianos de manera más rápida y eficiente.

Además, su integración con el comercio electrónico hace que sea más fácil que nunca encontrar y comprar productos directamente desde nuestro móvil.