Saltar al contenido

¿ Qué hace Google Lens ?

29/01/2019

La inteligencia artificial de Google es cada vez mejor. La compañía anunció por primera vez Google Lens, y el sistema de inteligencia artificial para imágenes y vídeo, en Google I/O en 2017, pero desde entonces ha ido trayendo esta tecnología a la cámara de Google Pixel, Google Assistant, y mucho más. Ahora, Google Lens se está integrando en otro servicio de Google: Google Fotos.

Este pasado año 2018 fue un año importante para Google Fotos. Su mejora tenía como objetivo utilizar un nuevo algoritmo de clasificación para ayudar a los usuarios a encontrar más fácilmente lo que estaban buscando. Ahora, con la integración de Google Lens, las Imágenes están configuradas para ser aún más útiles.

Cómo funciona Google Lens

De forma similar al funcionamiento de Lens en otros servicios de Google, el sistema puede identificar objetos dentro de las imágenes. De esta manera podrás «dibujar» alrededor de algo que le interese o hacer clic en los puntos relacionados con un objeto en una imagen y en ella aparecerá información sobre ese objeto en la web.

Google Lens también tiene como objetivo ayudar a los usuarios a encontrar más fácilmente las cosas que están interesados en comprar. Un ejemplo que da Google es la posibilidad de encontrar una imagen de un sofá que te guste, pero que no sepas exactamente qué modelo es ni dónde comprarlo. Puedes dibujar alrededor del sofá o hacer clic en el punto en la imagen, y luego visitar los sitios para más información sobre el sofá y potencialmente incluso comprarlo.

¿Que cosas puede identificar Google Lens?

Google Lens puede identificar ropa, libros, edificios, plantas, animales y obras de arte. Podrá obtener resultados relevantes de las compras de ropa que hace, títulos de libros, más información sobre puntos de referencia y detalles sobre pinturas. También puede decirle qué especie y clasificación es un animal o una planta.

Además, Lens pronto podrá reproducir un vídeo musical si apunta con su cámara a un póster de un músico. Puede mostrar los horarios de las películas cuando se está fuera del teatro. Y a través de la nueva función de selección inteligente de texto, puede guardar la información de contacto de una tarjeta de visita y añadir un evento a su calendario desde un folleto o una cartelera.

También hay un cruce entre Google Lens y Maps esta vez, que añadirá AR a Street View y le ayudará a navegar en tiempo real.

¿Google Lens para iOS? – Opiniones

Google Lens & Fotos se extende a otros países, idiomas y plataformas. De forma nativa en Android la aplicación se comporta bien y su complementación con Fotos y la cámara es correcta. La nueva integración de Google Lens en iOS es mucho más intuitiva y sucede directamente en la aplicación oficial de Google. La principal ventaja es que puedes reconocer objetos directamente desde la cámara, sin necesidad de tener que tomar la foto antes, como en Google Fotos.

Es probable que Lens siga integrándose en otros productos de Google. El servicio ya está disponible en el Asistente de Google, que permite a los usuarios apuntar al Asistente a un objeto o ubicación en tiempo real, tras lo cual el Asistente mostrará información sobre el objeto o ubicación. Además, puedes encontrar Lens en Google Fotos y en la aplicación Camera en los smartphone.

Tras las pruebas, tengo que decir que en la práctica no funciona tan bien como en la teoría. En mi caso las pruebas se realizaron con un iPhone Xs Max, y encontré carencias en los análisis de fotos obteniendo resultados de cosas que no eran el foco de interés de mi captura, o falta de reconocimiento en otras.

Creo que Lens tiene mucho que mejorar, pero sigue un camino más que admirable en su campo. Os dejo con un teaser para que veáis la «teoría» de la que hablo.

X