OpenAI dissolve equipe de segurança influente após a saída do cientista-chefe Sutskever

A OpenAI efetivamente dissolveu uma equipe focada em garantir a segurança de possíveis futuros sistemas de inteligência artificial ultraeficientes após a saída de dois dos líderes do grupo, incluindo o cofundador e cientista-chefe da OpenAI, Ilya Sutskever.

Em vez de manter a chamada equipa de superalinhamento como uma entidade autónoma, a OpenAI está agora a integrar o grupo mais profundamente nos seus esforços de investigação para ajudar a empresa a atingir os seus objectivos de segurança, informou a Bloomberg News. A equipe foi formada há menos de um ano sob a liderança de Sutskever e Jan Leike, outro veterano da OpenAI.

A decisão de repensar a equipe ocorre após uma série de saídas recentes da OpenAI que reavivam questões sobre a abordagem da empresa para equilibrar velocidade e segurança no desenvolvimento de produtos de IA. Sutskever, um pesquisador amplamente respeitado, anunciou na terça-feira que estava deixando a OpenAI depois de discutir anteriormente com o CEO Sam Altman sobre como desenvolver rapidamente a inteligência artificial.

Pouco depois, Leike anunciou sua saída em uma postagem concisa nas redes sociais. “Eu pedi demissão”, disse ele. Para Leike, a saída de Sutskever foi a gota d’água após desentendimentos com a empresa, segundo uma pessoa a par da situação que pediu anonimato para discutir conversas privadas.

Em comunicado divulgado na sexta-feira, Leike disse que a equipe do superalinhamento estava lutando por recursos. “Nos últimos meses, minha equipe navegou contra o vento”, escreveu Leike em X. “Às vezes tivemos dificuldades com os cálculos e tornou-se cada vez mais difícil conduzir esses estudos cruciais.”

Poucas horas depois, Altman respondeu à postagem de Leike. “Ele está certo, temos muito mais a fazer”, escreveu Altman em X. “Estamos determinados a fazê-lo.”

Outros membros da equipe de superalinhamento também deixaram a empresa nos últimos meses. Leopold Aschenbrenner e Pavel Izmailov foram demitidos pela OpenAI. A notícia relatou anteriormente sua saída. Segundo uma pessoa a par do assunto, Izmailov foi afastado da equipe antes de sua saída. Aschenbrenner e Izmailov não responderam aos pedidos de comentários.

Segundo a empresa, John Schulman, cofundador de uma startup cuja pesquisa se concentra em grandes modelos de linguagem, será o futuro diretor de pesquisa do trabalho de adaptação do OpenAI. Separadamente, a OpenAI disse em um blog que nomeou o diretor de pesquisa Jakub Pachocki para assumir o papel de Suckewier como cientista-chefe.

“Estou confiante de que ele nos levará a fazer progressos rápidos e seguros na nossa missão de garantir os benefícios da AGI para todos”, disse Altman numa declaração terça-feira sobre a nomeação de Pachocki. AGI, ou inteligência artificial geral, refere-se à inteligência artificial que pode funcionar tão bem ou melhor que os humanos na maioria das tarefas. AGI ainda não existe, mas criá-la faz parte da missão da empresa.

A OpenAI também emprega funcionários dedicados ao trabalho de segurança de IA em equipes de toda a empresa, bem como em equipes individuais focadas em segurança. A primeira é uma equipa de preparação, criada em outubro do ano passado, cuja tarefa é analisar e tentar prevenir potenciais “ameaças catastróficas” relacionadas com sistemas de inteligência artificial.

A equipe de superalinhamento foi encarregada de resolver as ameaças de longo prazo. A OpenAI anunciou a criação de uma equipe de superalinhamento em julho passado, dizendo que se concentraria em controlar e garantir a segurança de futuros softwares de inteligência artificial que sejam mais inteligentes que os humanos – algo que a empresa há muito identificou como uma meta tecnológica. No anúncio, a OpenAI afirmou que dedicaria 20% de seu poder computacional da época ao trabalho da equipe.

Em novembro, Sutskever foi um dos vários membros do conselho da OpenAI que decidiu demitir Altman, o que gerou alvoroço de cinco dias na empresa. O CEO da OpenAI, Greg Brockman, saiu em protesto, os investidores se revoltaram e, em poucos dias, quase todos os cerca de 770 funcionários da startup assinaram uma carta ameaçando pedir demissão, a menos que Altman fosse trazido de volta. Numa reviravolta notável, Sutskever também assinou a carta e expressou pesar pelo seu envolvimento na derrubada de Altman. Pouco depois, Altman foi reintegrado.

Nos meses que se seguiram à saída e ao regresso de Altman, Sutskever desapareceu em grande parte da vista do público, gerando especulações sobre a continuação do seu papel na empresa. Sutskever também parou de trabalhar no escritório da OpenAI em São Francisco, segundo uma pessoa familiarizada com o assunto.

Em sua declaração, Leike disse que sua saída ocorreu após uma série de desentendimentos com a OpenAI sobre as “prioridades centrais” da empresa, que ele acreditava não se concentrarem suficientemente em medidas de segurança relacionadas à criação de inteligência artificial que possa superar os humanos.

Em uma postagem anunciando sua saída esta semana, Sutskever disse estar “confiante” de que a OpenAI desenvolveria uma AGI “que fosse segura e benéfica” sob sua liderança atual, incluindo Altman.

© 2024 Bloomberg L.P


(Esta história não foi editada pela equipe da NDTV e é gerada automaticamente a partir de um feed distribuído.)

Links de afiliados podem ser gerados automaticamente – detalhes podem ser encontrados em nossa declaração de ética.

Fonte