Como uma vitória de Trump pode levar a uma IA perigosa

A exigência de relatórios é importante para alertar o governo sobre novas capacidades potencialmente perigosas em modelos poderosos de IA, afirma um funcionário do governo dos EUA que trabalha em questões de IA. O responsável, que pediu anonimato para falar livremente, aponta Adoção de OpenAI Sobre seu último modelo de “rejeição inapropriada de pedidos de síntese de agentes nervosos”.

O funcionário diz que a exigência de relatórios não é excessivamente onerosa. Eles argumentam que, ao contrário das regulamentações de IA na União Europeia e na China, a OE de Biden “reflete uma abordagem muito ampla e alegre que continuará a promover a inovação”.

Nick Reese, que foi o primeiro diretor de tecnologias inovadoras do Departamento de Segurança Interna de 2019 a 2023, rejeita as alegações conservadoras de que a exigência de relatórios colocaria em risco a propriedade intelectual das empresas. E ele diz que isso poderia realmente beneficiar as startups, incentivando-as a desenvolver modelos “mais computacionalmente eficientes” e menos modelos de IA que se enquadram nos limites de relatórios.

O poder da IA ​​tornará imperativa a vigilância governamental, diz Amy Fields-Meyer, que ajudou a redigir o EO de Biden como funcionária de tecnologia da Casa Branca.

“Estamos falando de empresas que afirmam construir os sistemas mais poderosos da história do mundo”, diz Fields-Meyer. “A primeira responsabilidade do governo é proteger as pessoas. ‘Confie em mim, nós conseguimos’ não é um argumento convincente.”

Os especialistas elogiam as diretrizes de segurança do NIST como um recurso importante para a construção de defesas em novas tecnologias. Eles salientam que modelos de IA defeituosos podem causar graves danos sociais, incluindo discriminação em matéria de rendas e empréstimos e a perda de benefícios governamentais.

A primeira ordem executiva de Trump sobre IA Os sistemas federais de IA foram obrigados a respeitar os direitos civis, algo que requer investigação sobre danos sociais.

A indústria de IA tem principalmente bem-vindo O programa de segurança de Biden. “O que ouvimos é que a formulação deste material é amplamente benéfica”, disse o funcionário dos EUA. Para novas empresas com equipas pequenas, “expande a capacidade do seu pessoal para responder a estas preocupações”.

Reverter a OE de Biden envia um sinal preocupante de que “o governo dos EUA está a desistir da segurança da IA”, disse Michael Daniel, antigo conselheiro do presidente que agora dirige a Cyberthreat Alliance, uma organização de partilha de informações.

Quanto à concorrência com a China, os defensores da EO argumentam que as regras de segurança irão realmente ajudar a América a fazer com que os modelos de IA dos EUA funcionem melhor do que os seus rivais chineses e a protegê-los da espionagem económica de Pequim.

Duas maneiras muito diferentes

Se Trump ganhar a Casa Branca no próximo mês, espere uma mudança radical na forma como o governo aborda a segurança da IA.

Os republicanos querem evitar os danos da IA ​​aplicando “leis legais e legais existentes”, em vez de impor amplas restrições à tecnologia, diz Helberg, e são a favor de “um foco maior na maximização do potencial da IA, em vez de arriscar”. Isso provavelmente significaria a ruína para os requisitos de relatórios e possivelmente para algumas das diretrizes do NIST.

A exigência de apresentação de relatórios também pode enfrentar desafios legais, uma vez que o Supremo Tribunal enfraqueceu a deferência que os tribunais têm dado às agências na avaliação dos seus regulamentos.

E a resistência do Partido Republicano pode até colocar o NIST em risco parceria opcional de testes de IA com empresas líderes. “O que acontecerá com esses compromissos na nova administração?” – pergunta o representante oficial dos EUA.

Esta polarização em torno da IA ​​irritou os tecnólogos, que temem que Trump esteja a minar a procura de modelos mais seguros.

Nicole Turner Lee, diretora do Centro de Inovação Tecnológica da Brookings Institution, disse: “Junto com as promessas da IA ​​vêm os riscos, e é importante que o próximo presidente continue a garantir a segurança desses sistemas”.

Fonte