Total Pageviews

Blog Archive

Procura neste Blog

ITO-NeTthings. Com tecnologia do Blogger.

Google torna a pesquisa mais natural e intuitiva

Google torna a pesquisa mais natural e intuitiva
Share it:
Há mais de duas décadas que nos dedicamos à nossa missão: organizar as informações do mundo e torná-las universalmente acessíveis e úteis. Começámos com a pesquisa de texto, mas ao longo do tempo continuamos a criar maneiras mais naturais e intuitivas de encontrar informação — agora é possível pesquisar o que se vê através das câmaras de um dispositivo móvel ou fazer uma pergunta por voz.
Durante o evento Search On, mostramos como os avanços na inteligência artificial estão, mais uma vez, a permitir-nos transformar os nossos produtos de informação. Estamos a ir mais além da caixa de pesquisa para criar experiências de pesquisa que funcionam mais como as nossas mentes e que são tão multidimensionais quanto o somos enquanto pessoas. Prevemos um mundo em que é possível encontrar exatamente o que um utilizador procura através da combinação de imagens, sons, texto e voz, tal como as pessoas o fazem naturalmente. O utilizador poderá fazer perguntas, com menos palavras - ou até mesmo nenhuma questão- e ainda assim iremos entender exatamente o que quer dizer. E o utilizador vai poder explorar a informação organizada de uma maneira que faça mais sentido para si.

Chamamos a isto tornar a pesquisa mais natural e intuitiva, e estamos num caminho a longo prazo para trazer esta visão para as pessoas de todo o mundo.

Para dar uma ideia de como estamos a evoluir os nossos produtos de informação, seguem-se três destaques do que mostramos hoje no Search On.
  • Tornar o funcionamento da pesquisa visual mais natural - Estamos a tornar a pesquisa visual ainda mais natural através da pesquisa múltipla, uma maneira completamente nova de pesquisar utilizando imagens e texto simultaneamente, semelhante como um utilizador faz quando aponta para algo e faz uma pergunta a um amigo sobre o que está a ver. Introduzimos a pesquisa múltipla no início deste ano como uma versão beta nos EUA e, durante o Search On, anunciamos que vamos expandir esta nova funcionalidade a mais de 70 idiomas nos próximos meses. Estamos a levar este recurso ainda mais longe com a “pesquisa múltipla perto de mim”, permitindo que o utilizador tire uma foto de um item desconhecido, tal como um prato ou uma planta, e encontre-o num local próximo, como um restaurante ou numa loja de jardinagem. Vamos começar a disponibilizar a “multipesquisa perto de mim” em Inglês nos EUA ainda este outono.
  • Traduzir o mundo à nossa volta - Um dos aspectos mais poderosos da compreensão visual é a sua capacidade para quebrar barreiras linguísticas. Com os avanços em Inteligência Artificial (IA), fomos além da tradução de texto para a tradução de imagens. Agora é possível combinar o texto traduzido na imagem de fundo graças a uma tecnologia de aprendizagem de máquina denominada por Generative Adversarial Networks (GANs). Ou seja, se o utilizador apontar a sua câmara para uma revista num outro idioma, por exemplo, será possível ver o texto traduzido e sobreposto de forma realista nas fotos que estão abaixo.
  • Explorar o mundo com a visão imersiva - Assim como na navegação o tráfego, em tempo real, tornou o Google Maps muito mais útil, estamos a fazer outro avanço significativo no mapeamento ao trazer informações úteis, como o clima e o quão lotado um local está através da visualização imersiva no Google Maps. Com esta nova experiência, o utilizador pode sentir e ter uma ideia do local antes mesmo de entrar e para que possa decidir com confiança quando e onde ir. Digamos que o utilizador está interessado em estar com um amigo num determinado restaurante. É possível aproximarmo-nos de um bairro e de um restaurante para ter uma ideia de como poderá estar o local na data e hora que planeou o encontro, visualizando coisas como o clima ou como preenchido o espaço poderá estar. Ao fundir as nossas imagens avançadas do mundo com os nossos modelos preditivos, podemos dar uma ideia de como estará um local amanhã, na próxima semana ou até no próximo mês.

Toda a informação e respectivos detalhes estão disponíveis no post oficial assinado por Prabhakar Raghavan, Senior Vice President.
Share it:

info

Post A Comment:

0 comments: