A alegação contra a distração invoca as alucinações de notícias falsas

A empresa não respondeu aos pedidos de comentários.

Em um comunicado enviado à WIRED, o CEO da News Corp, Robert Thomson, comparou o Perplexity negativamente ao OpenAI. “Queremos empresas de princípios como a OpenAI que entendam que integridade e criatividade são essenciais se quisermos concretizar o potencial da inteligência artificial”, afirma o comunicado. “A Perplexity não é a única empresa de IA que abusa da propriedade intelectual e não é a única empresa de IA que perseguiremos com diligência e rigor. Deixamos claro que não vamos processar, mas pelo bem de nossos jornalistas, nossos escritores e a empresa, devemos resistir à cleptocracia do conteúdo.”

No entanto, a OpenAI enfrenta acusações de violação de marca registrada. Em New York Times x OpenAI“Tempos”. reivindicações que ChatGPT e Bing Chat atribuirão citações falsas ao Times e acusarão OpenAI e Microsoft de difamá-lo ao minar a marca registrada. Num exemplo citado no processo, o Times afirma que o Bing Chat alegou que o Times chamava o vinho tinto (com moderação) de um alimento “saudável para o coração”, quando na verdade não era; O Times afirma que o seu relatório factual refutou as afirmações sobre a salubridade do consumo moderado de álcool.

“É ilegal copiar artigos de notícias para operar produtos de substituição e geração de IA, como deixamos claro em nossas cartas à Perplexity e em nosso processo contra a Microsoft e a OpenAI”, disse o diretor de comunicações externas do NYT, Charlie Stadtlander. “Acolhemos com satisfação esta ação movida pela Dow Jones e pelo New York Post, que é um passo importante para garantir que o conteúdo do editor seja protegido deste tipo de apropriação”.

Se os editores aproveitarem o fato de que as alucinações podem violar a lei de marcas registradas, as empresas de IA poderão enfrentar “enormes problemas”, segundo Matthew Sagg, professor de direito e inteligência artificial na Emory University.

“É absolutamente impossível garantir que um modelo de linguagem não seja alucinante”, diz Sag. Segundo ele, a forma como os modelos de linguagem funcionam, prevendo palavras que soam bem em resposta a solicitações, é sempre um tipo de alucinação – às vezes mais plausível do que outras.

“Só chamamos isso de alucinação se não corresponder à nossa realidade, mas o processo é exatamente o mesmo, gostemos ou não do resultado.”

Fonte