Google explica respostas estranhas com revisões de IA e revela medidas para melhorar recursos

Na quinta-feira (30 de maio), o Google publicou uma explicação para o fiasco causado por sua ferramenta de busca de inteligência artificial (IA) – AI Reviews – que relatou gerar respostas imprecisas para muitas consultas. O recurso de inteligência artificial do mecanismo de busca foi revelado em 14 de maio no Google I/O 2024, mas teria sido investigado logo depois por fornecer respostas bizarras às perguntas. Em uma longa explicação, o Google revelou a provável causa do problema e as medidas tomadas para resolvê-lo.

A resposta do Google

No blog publicar, o Google começou explicando como o AI Reviews funciona de maneira diferente de outros chatbots e modelos de linguagem grande (LLMs). Segundo a empresa, a AI Reviews simplesmente não produz “resultados baseados em dados de treinamento”. Em vez disso, diz-se que está integrado com os “principais sistemas de classificação” da web e destina-se a realizar tarefas tradicionais de “pesquisa” a partir de um índice. O Google também disse que sua ferramenta de busca baseada em IA “geralmente não causa alucinações”.

“Como a precisão é fundamental na pesquisa, as AI Reviews são projetadas para exibir apenas informações apoiadas pelos melhores resultados na web”, disse a empresa.

E depois o que aconteceu? Segundo o Google, um dos motivos foi a incapacidade do recurso AI Reviews de filtrar conteúdo satírico e sem sentido. Referindo-se à pergunta “Quantas pedras devo comer”, que produziu resultados sugerindo que uma pessoa come uma pedra por dia, o Google disse que antes da pesquisa, “virtualmente ninguém havia feito essa pergunta”.

Segundo a empresa, isso criou um “vazio de dados” onde o conteúdo de alta qualidade é limitado. Conteúdo satírico também foi publicado em conexão com esta consulta específica. “Então, quando alguém fez essa pergunta em um mecanismo de busca, apareceu uma visão geral da IA ​​com um link fiel para um dos poucos sites que tratavam dessa questão”, explicou o Google.

A empresa também admitiu que a AI Reviews fez referência a fóruns que, embora sejam “uma grande fonte de informações autênticas e em primeira mão”, podem levar a “conselhos nada úteis”, como usar cola de pizza para fazer queijo em palito. Em outros casos, a função de pesquisa interpretou mal a linguagem dos sites, levando a respostas incorretas.

O Google disse que “agiu rapidamente para resolver esses problemas, seja melhorando nossos algoritmos ou por meio de processos estabelecidos para remover respostas que violam nossas políticas”.

Etapas tomadas para melhorar as análises de IA

O Google tomou as seguintes medidas para melhorar as respostas às consultas geradas pelo AI Review:

  1. Foi incorporada uma detecção aprimorada de consultas sem sentido, limitando a inclusão de conteúdo satírico e sem sentido.
  2. A empresa afirma que também atualizou sistemas para limitar o uso de conteúdo gerado por usuários em respostas que possam oferecer conselhos enganosos.
  3. As análises de inteligência artificial sobre tópicos difíceis não serão mostradas onde “frescura e factualidade” são importantes.

O Google também disse que monitorou análises e relatórios externos para um pequeno número de respostas de análises de IA que violavam seu conteúdo. No entanto, disse que a probabilidade de isso acontecer é “menos de uma em 7 milhões de consultas únicas”.


Links de afiliados podem ser gerados automaticamente – detalhes podem ser encontrados em nossa declaração de ética.

Fonte