Segundo relatos, o Google Fotos pode ser exibido por autores de fotos com IA para proteger os usuários de casos de Deepfakes

O Google Fotos está adicionando um novo recurso que permitirá aos usuários verificar se uma foto foi gerada ou aprimorada usando inteligência artificial (IA). De acordo com o relatório, o serviço de compartilhamento e armazenamento de fotos e vídeos receberá novas etiquetas de identificação de ativos que revelarão informações de IA sobre a imagem, bem como o tipo de fonte digital. A gigante da tecnologia de Mountain View provavelmente está trabalhando nesse recurso para reduzir deepfakes. No entanto, não está claro como as informações serão exibidas aos usuários.

Atribuição de IA no Google Fotos

Nos últimos anos, os Deepfakes se tornaram uma nova forma de manipulação digital. Trata-se de imagens, vídeos, ficheiros de áudio ou outros meios semelhantes que foram gerados digitalmente através de inteligência artificial ou melhorados através de vários meios, a fim de espalhar desinformação ou enganar as pessoas. Por exemplo, o ator Amitabh Bachchan abriu recentemente uma ação judicial contra o proprietário de uma empresa por veicular anúncios em vídeo falsos nos quais o ator promovia os produtos da empresa.

Pela Autoridade Android relatórioum novo recurso do aplicativo Google Fotos permitirá aos usuários verificar se uma foto de sua galeria foi criada por meios digitais. Este recurso foi descoberto no aplicativo Google Fotos versão 7.3. No entanto, este não é um recurso ativo, o que significa que as pessoas que usam a versão mais recente do aplicativo ainda não poderão vê-lo.

Novas sequências de código XML foram encontradas nos arquivos de layout da publicação indicando esse desenvolvimento. Estes são recursos de ID, ou seja, identificadores atribuídos a um elemento ou recurso específico na aplicação. Um deles continha a frase “ai_info”, que provavelmente se refere às informações adicionadas aos metadados das imagens. Esta seção deve ser rotulada se a imagem foi gerada por uma ferramenta de IA que esteja em conformidade com protocolos de transparência.

Além disso, acredita-se que a tag “digital_source_type” se refira ao nome da ferramenta ou modelo de IA que foi usado para gerar ou aprimorar a imagem. Podem ser nomes como Gêmeos, Midjourney e outros.

No entanto, atualmente não está claro como o Google deseja exibir essas informações. Idealmente, ele poderia ser adicionado aos dados EXIF ​​​​(Exchangeable Image File Format) incorporados na imagem, para que haja menos oportunidades de adulterá-los. A desvantagem disso, entretanto, seria que os usuários não conseguiriam ver facilmente essas informações, a menos que visitassem a página de metadados. Alternativamente, o aplicativo pode adicionar um emblema na imagem para indicar imagens de IA, semelhante ao que Meta fez no Instagram.

Fonte