A Pesquisa Visual do Google agora pode responder a perguntas ainda mais complexas

Quando o Google Lens foi lançado em 2017, o recurso de pesquisa fez algo que há pouco tempo parecia ficção científica: aponte a câmera do seu telefone para um objeto e o Google Lens poderá identificá-lo, mostrar o contexto e até mesmo você comprá-lo. Era uma nova maneira de pesquisar que não envolvia escrever meticulosamente descrições das coisas que você vê à sua frente.

Lens também revelou como o Google planeja usar ferramentas de aprendizado de máquina e IA para fazer seu mecanismo de busca aparecer em todos os níveis possíveis. À medida que o Google utiliza cada vez mais modelos generativos baseados em IA para gerar resumos de informações em resposta a pesquisas de texto, a pesquisa visual do Google Lens também está evoluindo. E agora a empresa diz que o Lens, que realiza quase 20 bilhões de pesquisas por mês, oferecerá suporte a ainda mais formas de pesquisa, incluindo pesquisas de vídeo e multimodais.

Outra mudança no Lens significa que ainda mais contexto para compras é mostrado nos resultados. Comprar, não surpreendentemente, é um dos principais casos de uso do Lens; Amazon e Pinterest também possuem ferramentas de busca visual projetadas para mais compras. Pesquise os tênis velhos do seu amigo no Google Lens e você verá um carrossel de itens semelhantes. Na versão atualizada do Lens, o Google afirma que apresentará links mais diretos para compras, avaliações de clientes, avaliações de editores e ferramentas de comparação de preços.

A pesquisa de lentes agora é multimodal, uma palavra popular na IA atualmente, o que significa que as pessoas agora podem pesquisar com uma combinação de vídeo, imagens e entrada de voz. Em vez de apontar a câmera do smartphone para um objeto, clicar no ponto de foco na tela e esperar que o aplicativo Lens exiba os resultados, os usuários podem apontar a lente e usar comandos de voz, como “O que são as nuvens?” ou “Que marca de tênis são e onde os comprei?”

A lente também começa a gravar vídeo em tempo real, levando a ferramenta um passo além da identificação de objetos em imagens estáticas. Se você tiver um player quebrado ou vir uma luz piscando em um dispositivo com defeito em casa, você pode gravar um vídeo rápido com o Lens e ver dicas sobre como consertar as coisas por meio de comentários gerados por IA.

Anunciado pela primeira vez no I/O, o recurso é considerado experimental e está disponível apenas para pessoas inscritas nos laboratórios de pesquisa do Google, diz Rajan Patel, usuário do Google há 18 anos e cofundador do Lens. Outros recursos incluem Google Lens, modo de voz e compras estendidas.

O recurso “video insights”, como o Google o chama, é interessante por vários motivos. Embora atualmente funcione com vídeos capturados em tempo real, se ou quando o Google o expandir para vídeos gravados, todo o estoque de vídeos – seja no rolo da câmera pessoal de uma pessoa ou em um enorme banco de dados como o Google – pode ser potencialmente etiquetado e incrivelmente comprável.

A segunda consideração é que esse recurso do Lens compartilha alguns recursos com o Projeto Astra do Google, que deverá estar disponível ainda este ano. O Astra, assim como o Lens, usa entrada multimodal para interpretar o mundo ao seu redor por meio do seu telefone. Como parte do show Astra nesta primavera, a empresa exibiu um par de protótipos de óculos inteligentes.

Separadamente, Meta causou impacto com sua visão de longo prazo de nosso futuro de realidade aumentada, que envolveria apenas pessoas usando óculos escuros que pudessem interpretar de forma inteligente o mundo ao seu redor e mostrar-lhes interfaces holográficas. O Google, é claro, já tentou concretizar esse futuro com o Google Glass (que usa uma tecnologia radicalmente diferente da mais recente Meta). Os novos recursos do Lens, junto com o Astra, são um tipo natural de óculos inteligentes?

Fonte