Geoffrey Ding, professor assistente de ciência política na Universidade George Washington, diz que os reguladores chineses podem ter aprendido com a Lei de IA da UE. “Políticos e académicos chineses disseram que usaram a Lei da UE como inspiração para o que aconteceu antes.”
Mas, ao mesmo tempo, algumas das medidas tomadas pelos reguladores chineses não são realmente replicáveis noutros países. Por exemplo, o governo chinês está pedindo às plataformas sociais que verifiquem o conteúdo enviado pelos usuários em busca de IA. “Isto é algo muito novo e pode ser único no contexto chinês”, diz Ding. “Isso nunca existe no contexto dos EUA, porque os EUA são famosos por dizer que a plataforma não é responsável pelo conteúdo.”
Mas e a liberdade de expressão na internet?
O projeto de regulamento sobre rotulagem de conteúdo de IA aguarda comentários públicos até 14 de outubro e pode levar mais alguns meses para ser alterado e adotado. Mas há poucos motivos para as empresas chinesas atrasarem os preparativos até que entre em vigor.
Sima Huapen, fundador e CEO da AIGC Silicon Intelligence, uma empresa chinesa que utiliza tecnologias profundas para criar agentes de IA, influenciadores e réplicas de pessoas vivas e mortas, diz que seu produto agora permite que os usuários escolham voluntariamente se o produto gerado será marcado como IA. . Mas se a lei for aprovada, ele poderá alterá-la para obrigatória.
“Se o recurso for opcional, as empresas provavelmente não o adicionarão aos seus produtos. Mas se se tornar obrigatório por lei, todos terão que fazê-lo”, diz Sima. Adicionar marcas d’água ou rótulos de metadados não é tecnicamente difícil, mas. custa dinheiro e aumenta a eficiência operacional das empresas elegíveis.
Políticas como estas poderiam desencorajar a utilização da IA para fraudes ou invasão de privacidade, mas também poderiam levar ao crescimento de um mercado negro de serviços de IA, onde as empresas tentam evitar o cumprimento da lei e poupar custos.
Há também uma linha tênue entre responsabilizar os produtores de conteúdo de IA e policiar o discurso individual por meio de um rastreamento mais sofisticado.
“A principal questão dos direitos humanos é garantir que estas abordagens não interfiram na privacidade ou na liberdade de expressão”, afirma Gregory. Embora rótulos e marcas d’água possam ser usados para identificar fontes de desinformação e conteúdo impróprio, as mesmas ferramentas podem permitir que plataformas e governos exerçam um controle mais forte sobre o que os usuários publicam online. Na verdade, as preocupações sobre como as ferramentas artificiais podem tornar-se fraudes têm sido um dos principais impulsionadores dos principais esforços legislativos em matéria de IA.
Ao mesmo tempo, a indústria chinesa de IA está a forçar o governo a ter mais espaço para experimentação e desenvolvimento, uma vez que já está atrás dos seus pares ocidentais. A lei anterior da China baseada na IA foi significativamente diluída entre o primeiro projecto estatal e o projecto de lei final, que eliminou os requisitos de verificação de identidade e reduziu as multas para as empresas.
“O que vimos é que o governo chinês está realmente tentando caminhar na linha tênue entre ‘garantir que mantemos o controle sobre o conteúdo’ e também ‘deixar esses laboratórios de IA terem a liberdade de inovar em um espaço estratégico’”, disse Ding. “Esta é outra tentativa disso.”