Na I/O 2021, o Google anunciado ela estava usando uma nova tecnologia chamada Multitask Unified Model para aprimorar os recursos de seu mecanismo de busca. Então, em setembro do mesmo ano, mostrou como o MUM tornaria possível pesquisar imagens e texto simultaneamente no Google Lens. Na época, a empresa prometeu que o multisearch seria lançado “nos próximos meses”. E embora ainda não esteja usando o MUM para aprimorar as pesquisas, iniciou o teste beta do multisearch.
Desde que more nos EUA, você pode experimentar o recurso no aplicativo do Google para Android e iOS. Para fazer isso, toque no ícone Lens e deslize para cima depois de tirar uma nova foto ou importar uma imagem existente do rolo da câmera. Em seguida, toque no ícone “Adicionar à sua pesquisa”.
Você pode usar esse campo para fazer perguntas sobre a imagem antes de você ou para refinar sua pesquisa. Por exemplo, você pode tirar uma foto do câmbio traseiro da sua bicicleta (o componente que move a corrente de uma marcha para outra) e procurar como consertá-lo ou ajustá-lo por conta própria. Ao combinar texto e imagens, o Google sugere que está facilitando a conclusão de pesquisas onde fazê-lo apenas com palavras pode ser complicado. Afinal, mesmo os ciclistas mais casuais não sabem o que é um desviador ou o que ele faz.
Como já mencionado, você também pode usar o recurso para refinar suas pesquisas. Então, digamos que você veja uma camisa com um padrão que você gosta, mas quer ver se esse mesmo padrão está disponível em meias e outras peças de roupa. Você pode digitar “meias brancas vitorianas florais” no Google, mas, novamente, isso dependeria de você ter o vocabulário de moda para saber o que deseja do Google e, mesmo que descreva com precisão o que vê, o mecanismo de pesquisa pode não produzir resultados úteis. No momento, o Google sugere que o recurso funciona melhor quando são feitas pesquisas relacionadas a compras, como a mostrada acima.
“Tudo isso é possível graças aos nossos mais recentes avanços em inteligência artificial, que estão facilitando a compreensão do mundo ao seu redor de maneiras mais naturais e intuitivas”, disse o Google. “Também estamos explorando maneiras pelas quais esse recurso pode ser aprimorado pelo MUM – nosso mais recente modelo de IA na Pesquisa – para melhorar os resultados de todas as perguntas que você possa imaginar.”
Todos os produtos recomendados pelo Techdoxx são selecionados por nossa equipe editorial, independente de nossa matriz. Algumas de nossas histórias incluem links de afiliados. Se você comprar algo através de um desses links, podemos ganhar uma comissão de afiliado.
Não esqueça de deixar o seu comentário.