Avaliações de inteligência artificial do Google que afirmam sofrer de alucinações de inteligência artificial recomendam o uso de cola para pizza

A nova ferramenta de pesquisa baseada em IA do Google, AI Reviews, está enfrentando críticas por fornecer respostas imprecisas e um tanto bizarras às dúvidas dos usuários. Em um incidente relatado recentemente, um usuário contatou o Google sobre o queijo não grudar em sua pizza. Embora esperassem uma solução prática para seus problemas culinários, o Google AI Reviews apresentou uma solução bastante surpreendente. De acordo com postagens recentes no X, este não foi um caso isolado em que a ferramenta de IA também sugeriu respostas bizarras a outros usuários.

Alucinação de queijo, pizza e inteligência artificial

O assunto veio à tona depois que um usuário o relatou ele escreveu Procure no Google “queijo não gruda em pizza”. Resolvendo o problema culinário, o recurso AI Reviews do Search sugeriu várias maneiras de fazer um palito de queijo, como misturar o molho e deixar a pizza esfriar. No entanto, uma das soluções revelou-se verdadeiramente bizarra. De acordo com a captura de tela compartilhada, sugeria ao usuário “adicionar ⅛ xícara de cola não tóxica ao molho para torná-lo mais pegajoso”.

Após uma investigação mais aprofundada, a fonte teria sido encontrada e acabou sendo o Reddit Comente de 11 anos atrás, o que mais parecia uma piada do que um conselho culinário profissional. No entanto, o recurso AI Reviews do Google, que ainda inclui a tag “Generative AI is experimental” na parte inferior, é uma sugestão séria sobre a consulta original.

Outra resposta imprecisa da AI Reviews veio à tona há alguns dias, quando, segundo relatos, um usuário ele perguntou Google, “Quantas pedras devo comer”. A ferramenta sugeriu, citando geólogos da Universidade da Califórnia, Berkeley, que “é recomendado comer pelo menos uma pedra por dia porque contém minerais e vitaminas importantes para a saúde digestiva”.

Problema com respostas falsas

Estes tipos de problemas têm surgido regularmente nos últimos anos, especialmente desde o início do boom da inteligência artificial (IA), resultando num novo problema conhecido como alucinação da IA. Embora as empresas afirmem que os chatbots baseados em IA podem cometer erros, há cada vez mais casos em que estas ferramentas são utilizadas para distorcer factos e fornecer respostas falsas ou mesmo bizarras.

No entanto, o Google não é a única empresa cujas ferramentas de IA forneceram respostas imprecisas. O ChatGPT da OpenAI, o Copilot da Microsoft e o chatbot de IA da Perplexity supostamente sofreram de alucinações relacionadas à IA.

Em mais de um caso, a fonte foi descoberta em uma postagem ou comentário do Reddit de anos atrás. As empresas que criam ferramentas de IA também estão cientes disso, como o CEO da Alphabet, Sundar Pichai eloquente The Verge “essas são coisas em que podemos melhorar”.

Fale sobre alucinações de IA em um evento no IIIT Delhi em junho de 2023 Sam Altman: [OpenAI](O CEO e cofundador disse: “Levaremos cerca de um ano para aperfeiçoar o modelo. Ele atinge um equilíbrio entre criatividade e precisão, por isso tentamos minimizar o problema. [At present,] Confio menos nas respostas que vêm do ChatGPT do que em qualquer outra pessoa nesta Terra.


Links de afiliados podem ser gerados automaticamente – detalhes podem ser encontrados em nossa declaração de ética.



Fonte