A OpenAI anunciou a criação de um novo “Comitê de Segurança e Proteção”, que vai gerenciar os riscos das operações e iniciativas da empresa. A OpenAI também informou que começou a treinar seu próximo modelo de fronteira, aproximando-se do objetivo de criar uma inteligência artificial geral (AGI). No entanto, alguns céticos argumentam que a AGI ainda está distante. A criação do comitê é uma resposta às recentes falhas públicas da empresa.
Ainda não está claro se o novo modelo de fronteira será o GPT-5 ou outro modelo avançado. Na indústria de IA, um “modelo de fronteira” se refere a sistemas que superam as capacidades existentes. Diferente da IA restrita, treinada para tarefas específicas, a “AGI” se refere a um sistema com capacidades de nível humano para realizar tarefas complexas e inovadoras.
O recém-formado Comitê de Segurança e Proteção, liderado pelo diretor Bret Taylor e incluindo Adam D’Angelo, Nicole Seligman, Sam Altman e o CEO, fará sugestões sobre a segurança da IA ao conselho de administração da OpenAI. A segurança não se limita a evitar que a IA se torne desonesta, mas inclui um conjunto abrangente de processos e salvaguardas descritos em um relatório de segurança atualizado em 21 de maio. Esses processos e salvaguardas envolvem investigação de alinhamento, proteção infantil, integridade eleitoral, avaliação de impactos sociais e implementação de medidas de segurança.
Nos próximos noventa dias, o comitê avaliará e melhorará esses procedimentos e medidas de segurança. Ao final desse período, o comitê apresentará suas recomendações ao conselho, e a OpenAI fará uma atualização pública sobre as propostas implementadas. A empresa promete tomar essas medidas, mas ainda não se sabe se o processo resultará em políticas significativas com impacto genuíno nas operações.
Numerosos profissionais técnicos e políticos, incluindo Aleksander Madry, Lilian Weng, John Schulman, Matt Knight e Jakub Pachocki, integrarão o novo conselho da OpenAI.
Este anúncio é notável por várias razões. Primeiro, responde às críticas que seguiram as demissões de Jan Leike e Ilya Sutskever da equipe OpenAI Superalignment, que era responsável por “dirigir e controlar sistemas de IA muito mais inteligentes do que nós”. Após suas saídas, a OpenAI foi criticada por alguns no campo da IA (incluindo Leike) por não se dedicar ao desenvolvimento seguro de IA extremamente poderosa. Detratores, como Yann LeCun, cientista-chefe de IA da Meta, acreditam que a empresa está longe de produzir AGI, portanto, as preocupações sobre a segurança da IA superinteligente podem ser exageradas.
Segundo, há especulações de que o desenvolvimento de grandes modelos de linguagem (LLMs) estagnou, com capacidades semelhantes ao GPT-4. Claude Opus da Anthropic e Gemini 1.5 Pro do Google são os principais modelos rivais, mas são bastante semelhantes em capacidade. Quando todos esperavam que a OpenAI revelasse um novo modelo de IA que superasse o GPT-4 Turbo, a empresa lançou o GPT-4o, que é mais rápido, mas igualmente capaz. Em vez de uma reformulação significativa, a empresa se concentrou em uma interface de conversação nova durante o lançamento.
Com estas últimas notícias, parece que os relatórios anteriores sobre o GPT-5 chegando neste verão podem ter sido sobre o GPT-4o. Talvez a OpenAI nunca lance um modelo que supere substancialmente o GPT-4. Teremos que esperar para ver, pois a empresa mantém silêncio sobre os detalhes.