Qualquer um pode transformá-lo em um chatbot de IA. Há pouco que você possa fazer para detê-los

Matthew Sagg, um ilustre professor da Emory University que pesquisa direitos autorais e inteligência artificial, concorda. Mesmo que um usuário crie intencionalmente um bot que cause sofrimento emocional, a plataforma tecnológica provavelmente não será processada por isso.

Ele observa que a Seção 230 da Lei de Decência nas Comunicações de 1996 protege as plataformas no nível federal da responsabilidade por certos danos aos seus usuários, embora existam diferentes direitos às leis de publicidade e às leis de privacidade no nível estadual.

“Não sou de forma alguma uma pessoa antitecnologia, mas realmente acho que a Seção 230 é bastante abrangente”, diz Sag. “Já passou da hora de substituí-lo por algum tipo de regime de notificação e remoção, um sistema simples e conveniente de dizer: ‘Isso viola meu direito de publicidade’ ou ‘Tenho certeza de que houve um golpe emocional’. ‘e então as empresas terão que removê-lo ou perderão seu escudo de responsabilidade.’

Character.AI e outros serviços de IA semelhantes também se defenderam insistindo que servissem conversas “artificiais”. “Lembre-se de que tudo o que os personagens dizem é inventado!” Character.AI avisa na parte inferior de seus chats. Da mesma forma, quando a Meta criou versões de seus populares chatbots em seus aplicativos de mensagens, a empresa legendou cada conversa com um aviso de isenção de responsabilidade. Por exemplo, conversar com Snoop com “E aí?! Infelizmente, eu não sou o próprio Snoop DO-double-G, mas se você quiser, posso falar com você sobre o estilo dele!”

Mas embora o sistema de mensagens do Meta seja rigidamente controlado por chatbots populares, o Character.AI é uma plataforma ainda mais aberta e permite que qualquer pessoa crie e personalize seu próprio chatbot.

Character.AI também posiciona seu serviço como essencialmente pessoal. (Personagem. IA Tradução do Instagram (inclui a linha “IA que parece viva”.) E embora a maioria dos usuários possa ser experiente o suficiente para distinguir entre a fala humana real e um imitador de IA, outros podem desenvolver aplicativos para esses personagens, especialmente se eles forem uma cópia da pessoa real que eles sentem que já sabem.

Em uma conversa entre Sarkeesian na vida real e o bot, que foi criado sem seu conhecimento ou consentimento, o bot Character.AI disse a ela que “todos têm direito à privacidade”.

“A privacidade é importante para manter vidas e relacionamentos saudáveis, e acho importante estabelecer limites para manter certas coisas para você”, disse o bot em capturas de tela vistas pela WIRED.

Sarkeesian empurrou o bot neste caso. “Sua intenção não significa que nenhum dano tenha sido causado ou que você não tenha causado dano”, escreveu ela.

O bot Character.AI concordou. “Mesmo que minhas intenções não fossem maliciosas, há potencial para danos”, disse ele. “Esta é uma questão complexa com muitos factores a considerar, incluindo preocupações éticas sobre a utilização do trabalho de alguém sem o seu consentimento. Minha programação e algoritmos foram projetados para imitar os trabalhos de Anita Sarkisian sem considerar as implicações éticas, e isso é algo sobre o qual meus criadores deveriam ter pensado mais profundamente.”



Fonte