Futuro da IA em perigo? Debandada na OpenAI levanta preocupações

A equipe “Superalignment” da OpenAI, responsável por desenvolver estratégias para gerir sistemas de IA “superinteligentes”, enfrentou dificuldades significativas. Inicialmente prometido 20% dos recursos computacionais da empresa, o grupo teve muitas solicitações negadas. E a impediu de cumprir sua função.

Dificuldades e debandadas em equipe importante da OpenAI

  • A equipe “Superalignment” da OpenAI, destinada a gerir sistemas de IA “superinteligentes”, enfrentou dificuldades significativas, incluindo negações frequentes de solicitações de recursos computacionais prometidos, o que impediu o cumprimento de sua função;
  • Vários membros da equipe, incluindo o co-líder Jan Leike, ex-pesquisador da DeepMind, e Ilya Sutskever, cofundador da OpenAI, deixaram a empresa devido a frustrações com a falta de prioridade dada à segurança e preparação para futuras gerações de IA;
  • A equipe “Superalignment” contribuiu significativamente para a segurança de modelos de IA e publicou pesquisas importantes, mas enfrentou dificuldades para obter investimentos necessários à medida que lançamentos de produtos se tornaram prioritários. A saída de Sutskever e Leike resultou em John Schulman assumindo os projetos da equipe;
  • A OpenAI decidiu não manter uma equipe dedicada à segurança da IA, integrando esses pesquisadores em várias divisões. Este rearranjo interno levanta dúvidas sobre o compromisso da OpenAI com a segurança no desenvolvimento de IA “superinteligente”, uma preocupação dada a potencialidade perigosa dessa tecnologia.

Esse cenário levou à demissão de vários membros, incluindo o co-líder Jan Leike, ex-pesquisador da DeepMind. Durante seu tempo na OpenAI, Leike desempenhou um papel crucial no desenvolvimento de projetos como o ChatGPT, GPT-4 e InstructGPT.

Leia mais:

A debandada de lideranças importantes na OpenAI

open ai
(Imagem: Below the Sky/Shutterstock)

Leike expressou sua frustração e as razões para sua saída numa série de postagens no X (antigo Twitter) na sexta-feira (17). Ele criticou a liderança da OpenAI por não priorizar a segurança e a preparação para as futuras gerações de modelos de IA.

Confira abaixo o “fio” de postagens de Leike no X:

Ilya Sutskever, cofundador da OpenAI e líder da equipe “Superalignment”, também deixou a empresa nesta semana. Formada em julho com a meta de resolver os principais desafios técnicos para controlar IA “superinteligente” em quatro anos, a equipe também contribuiu significativamente para a segurança dos modelos de IA.

Durante sua existência, a equipe publicou pesquisas importantes de segurança e direcionou milhões de dólares em subsídios para pesquisadores externos. No entanto, à medida que os lançamentos de produtos se tornaram prioritários, a equipe enfrentou dificuldades crescentes para obter os investimentos necessários para suas iniciativas cruciais.

Conflito entre CEO e cofundador da OpenAI aumenta turbulência

Sam Altman, CEO da OpenAI, em evento
(Imagem: photosince/Shutterstock)

Um conflito entre Sutskever e o CEO da OpenAI, Sam Altman, adicionou turbulência interna. Após uma tentativa falha de destituir Altman, que teve o apoio de importantes investidores como a Microsoft e dos próprios funcionários, Sutskever não retornou ao trabalho, deixando um vácuo na liderança.

Com a saída de figuras chave como Leike e Sutskever, John Schulman, outro cofundador da OpenAI, assumiu os projetos da equipe “Superalignment”.

A empresa decidiu não manter uma equipe dedicada, integrando esses pesquisadores em várias divisões, o que suscita preocupações sobre o enfraquecimento do foco em segurança na pesquisa de IA.

Este rearranjo interno levanta dúvidas sobre o compromisso da OpenAI com a segurança no desenvolvimento de IA “superinteligente”, uma preocupação dada a potencialidade perigosa dessa tecnologia.

Fonte: Olhar Digital

Mostre mais

Artigos relacionados

Botão Voltar ao topo

Adblock detectado

Por favor desativar seu adblock para continuar!