A OpenAI revelou que dissolveu a equipe que tinha como objetivo monitorar e controlar futuros sistemas de IA que poderiam ficar mais inteligentes do que as pessoas e, na pior das hipóteses, levar à extinção humana. O time foi criado em julho do ano passado para garantir que a evolução da inteligência artificial fosse benéfica para a humanidade e não provocasse um apocalipse
.
Nesta semana, os dois líderes do grupo anunciaram a saída da companhia: o cofundador e cientista-chefe da OpenAI, Ilya Sutskever, e o diretor da equipe de controle, Jan Leike.
Tensão interna na OpenAI
Em vez de manter a chamada “equipe de superalinhamento” como uma entidade autônoma, a OpenAI informou à Bloomberg que vai integrar o restante do time nos seus trabalhos de pesquisa para atingir os objetivos de segurança.
–
Canaltech no Youtube: notícias, análise de produtos, dicas, cobertura de eventos e muito mais! Assine nosso canal no YouTube
, todo dia tem vídeo novo para você!
–
Porém, uma sequência de publicações de Jan Leike na plataforma X (o antigo Twitter
), nesta sexta-feira (17), revela um clima de tensão interna e desentendimentos entre o trabalho do time de controle e as iniciativas da companhia.
“Há algum tempo que discordo da liderança da OpenAI sobre as principais prioridades da empresa, até que finalmente chegamos a um ponto de ruptura”, escreveu Leike na rede social.
I joined because I thought OpenAI would be the best place in the world to do this research.
However, I have been disagreeing with OpenAI leadership about the company’s core priorities for quite some time, until we finally reached a breaking point.
— Jan Leike (@janleike) May 17, 2024
O agora ex-diretor de equipe diz que é necessária maior preparação para as próximas gerações de modelos de IA, especialmente em tópicos relacionados à segurança, monitoramento, confidencialidade e impacto social — mas os rumos internos vão na direção oposta.
“Nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes. Nos últimos meses, minha equipe navegou contra a maré”, acrescentou o executivo em seu desabafo.
Segundo Leike, “construir máquinas mais inteligentes que as humanas é uma tarefa inerentemente perigosa, e a OpenAI assume uma enorme responsabilidade em nome de toda a humanidade”.
But over the past years, safety culture and processes have taken a backseat to shiny products.
— Jan Leike (@janleike) May 17, 2024
No final da sequência de tuítes, o ex-diretor pede ao grupo de funcionários da OpenAI para agir com seriedade e conduzir a empresa à mudança cultural necessária. “Estou contando com vocês”, escreve Jan Leike.
A saída de Ilya Sutskever
Além da saída turbulenta de Leike nesta sexta-feira, a semana teve ainda a partida de Ilya Sutskever na quarta-feira (15). Além de ser um dos líderes da “equipe de superalinhamento”, Sutskever foi também um dos fundadores da OpenAI.
Em uma publicação na rede social X, o cofundador informou que tomou a decisão de deixar a companhia para focar em um projeto de “muito significado pessoal”, sem dar mais detalhes sobre o novo trabalho.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama
, @gdb
, @miramurati
and now, under the…— Ilya Sutskever (@ilyasut) May 14, 2024
Sutskever também ficou conhecido pelo envolvimento na breve demissão do CEO da companhia, Sam Altman
, em novembro do ano passado. Após funcionários da empresa ameaçarem pedir demissão se Altman não fosse reintegrado
, Sutskever assinou uma carta em que afirmava ter se arrependido da ação, enquanto o CEO voltou ao cargo cinco dias após o imbróglio.
A dissolução do time de “superalinhamento” e controle dos sistemas de IA chega dias após a OpenAI revelar o modelo GPT-4o
, com novos avanços em capacidade multimodal de processamento de informações e consultas à internet em tempo real para alimentar o ChatGPT
.
Leia a matéria no Canaltech
.
Trending no Canaltech: