Facebooktwitterlinkedin

En la historia de la humanidad nunca habíamos podido contar con tanta información como ahora, todo a tan solo un clic de distancia. Si tienes hambre, quieres buscar un regalo o planeas tus próximas vacaciones, solo necesitas sacar el móvil y teclear algunas palabras para encontrar lo que deseas. Si esto te parece fácil, la IA de Google lo hará aún más, ya que ha avanzado tanto que en poco tiempo solo deberás tomar una fotografía y capturar unas pocas palabras clave para encontrar prácticamente cualquier cosa que necesites en su gran buscador. Todo ello con la ayuda de su Multitask Unified Model, mejor conocido como MUM, que llega para revolucionar la búsqueda visual.

Las nuevas capacidades de búsqueda visual de MUM

MUM fue presentado durante el evento Google I/O 2021 como un nuevo modelo que es 1.000 veces más poderoso que su red neuronal Bert, y que además puede combinar múltiples búsquedas en múltiples idiomas para ofrecer la respuesta más completa al usuario.

Mum es multimodelo, es decir, entiende información que proviene de texto e imágenes, y que promete en un futuro próximo expandir sus habilidades hacia formatos de vídeo y audio. Un ejemplo de consulta que Google comparte es “He escalado el monte Adams, y ahora quiero escalar el monte Fuji el próximo otoño ¿Qué debería cambiar en mi preparación?»

Google ha estado experimentando con el uso de las capacidades de MUM y durante su evento Search On, el gigante de internet compartió los últimos avances de su inteligencia artificial aplicada a sus productos de búsqueda, que aportan información de forma más natural e intuitiva.

«En los próximos meses, presentaremos una nueva forma de buscar visualmente, con la capacidad de hacer preguntas sobre lo que ves. Aquí hay un par de ejemplos de lo que será posible con MUM», afirma Google en su comunicado, y nos comparte este ejemplo: Tienes la camisa ideal, pero te gustaría encontrar unos calcetines con el mismo patrón. Ahora podrás tocar el icono de Lens al hacer la búsqueda visual de la camisa y pedirle a Google que busque ese mismo patrón, pero en calcetines.

Así es MUM, la IA con la que Google quiere revolucionar la búsqueda visual

Como puedes ver, esta nueva capacidad te ayudará a buscar algo que podría ser difícil definir solo con palabras, y al combinar imágenes y texto en una sola consulta, se facilita la expresión de las preguntas de forma más natural.

Otro ejemplo es cuando quieres buscar algo que no sabes exactamente cómo se llama. Por ejemplo, alguna pieza de tu bicicleta que quieres arreglar. Solo bastará tocarla con el icono de lente, y teclear «cómo reparar» para que Google te muestre resultados certeros en lugar de tener que estudiar un catálogo de piezas y luego buscar el tutorial.

Cambios en los resultados de búsqueda

Claro que con las nuevas funciones de MUM y otros avances de inteligencia artificial, Google ha decidido rediseñar su página de búsqueda con cambios que incluyen mejoras en la búsqueda visual para algunas consultas,  en la función «Acerca de este resultado», nuevas experiencias de compra «en persona» y más.

Cosas a saber

«Things to know» o «cosas a saber» será una nueva sección en los resultados de búsqueda con la que Google agrupará y ampliará la información disponible sobre un tema en concreto. Tal y como explica la compañía «Supongamos que deseas decorar tu apartamento y estás interesado en aprender más sobre la creación de pinturas acrílicas. Si buscas «pintura acrílica», Google comprende cómo las personas suelen explorar este tema y muestra los aspectos que es probable que vean primero. Por ejemplo, podemos identificar más de 350 temas relacionados con la pintura acrílica y ayudarte a encontrar el camino correcto a seguir».

Google lanzará esta función en los próximos meses. En el futuro, MUM desbloqueará conocimientos más profundos que quizás el usuario no habría sabido buscar, como «cómo hacer pinturas acrílicas con artículos para el hogar», y lo conectará con contenido en la web que de otro modo no habría encontrado.

Mejora la navegación visual con imágenes más grandes

Google lanzó una nueva interfaz con mejoras de «navegación visual» para algunas de sus páginas de resultados de búsqueda orientados a la inspiración. Por ejemplo, aquellas que incluyan la palabra «idea», como «ideas para pintar». Google asegura que esta interfaz hace que sea más fácil navegar de forma visual para encontrar lo que se está buscando.

Mejoras en «Sobre este resultado»

Google lanzó el bloque destacado «Sobre este resultado» en febrero de este año, que ahora mostrará más informes sobre la fuente de una noticia, e incluirá información sobre lo que terceros opinen sobre el resultado de búsqueda o resultados relacionados sobre el tema en otros sitios web.

Búsquedas de compra

Con esta nueva experiencia Google hará más fácil encontrar prendas de vestir desde dispositivos móviles directamente en los resultados de búsqueda. Por ejemplo, si buscas «chaquetas cortas» Google te mostrará un feed visual de este tipo de prendas en varios colores y estilos, junto con información útil como tiendas locales que las ofrecen, guías de estilo y vídeos.

Mejoras en la experiencia de compra a domicilio

Google añadió un nuevo inventario para hacer que la experiencia de compra online se sienta más cercana a las compras personales en tiendas físicas. Ahora se podrán filtrar los resultados usando el filtro «Stock» que determinará si la tienda online cuenta con existencias de ese producto en específico.

Esta nueva función se lanzará primero en Estados Unidos y en mercados selectos de habla inglesa incluyendo Reino Unido, Canadá y Australia, y se espera que se expanda a más países e idiomas próximamente.

Compras con Google Lens

Pronto los usuarios de iOS podrán ver un nuevo botón que permitirá buscar todas las imágenes de una página a través de Google Lens, aunque por ahora esta función solo estará de prueba en Estados Unidos.

Mejoras de la búsqueda en vídeos

Google ya utiliza sistemas de inteligencia artificial avanzados para identificar momentos clave en vídeos, como el tiro ganador en un partido de baloncesto o los pasos de una receta. Ahora da un paso más en esto, presentando una nueva experiencia que identifica temas relacionados en un vídeo, con vínculos para profundizar y obtener más información fácilmente.

«Incluso podemos mostrar temas relacionados que no se mencionan explícitamente en el vídeo, según nuestra comprensión avanzada de la información en el video. En este ejemplo, si bien el vídeo no dice las palabras «historia de vida del pingüino macaroni», nuestros sistemas entienden que los temas contenidos en el vídeo se relacionan con este tema, como cómo los pingüinos macaroni encuentran a sus familiares y navegan por los depredadores. La primera versión de esta función se implementará en las próximas semanas y agregaremos más mejoras visuales en los próximos meses», ha explicado Google.

 

Escribir comentario