Revisão Contratual entre OpenAI e Microsoft Introduz Fiscalização da AGI
Na terça-feira (28), OpenAI e Microsoft anunciaram uma atualização significativa em sua parceria, estabelecendo um mecanismo rigoroso para validação da inteligência artificial geral (AGI). Segundo o comunicado conjunto, um painel de especialistas independentes será responsáveis por verificar se a OpenAI efetivamente alcançou a AGI, após a própria empresa declarar esse marco.
Contexto da Recapitalização e Nova Estrutura Empresarial
A mudança ocorre em meio à recapitalização da OpenAI, que agora opera sob duas entidades: a OpenAI Foundation (sem fins lucrativos) e a OpenAI Group PBC (com fins lucrativos). A Microsoft, por sua vez, detém 27% das ações da nova estrutura — um montante avaliado em aproximadamente US$ 135 bilhões.
Além disso, a inclusão do painel de especialistas representa uma inversão estratégica, já que o contrato anterior permitia à OpenAI unicamente decidir quando a AGI teria sido alcançada. No entanto, os critérios específicos de avaliação e os nomes dos avaliadores permanecem não divulgados.
Direitos de Propriedade Intelectual e Limites Técnicos
As novas diretrizes estabelecem que os direitos de propriedade intelectual da Microsoft sobre pesquisas em IA serão mantidos até a validação da AGI ou até 2030, o que ocorrer primeiro. É relevante ressaltar que esses direitos não incluem arquiteturas de modelos, códigos de inferência ou hardware relacionado, sendo restritos a aspectos não ligados a pesquisa.
Em contrapartida, a Microsoft poderá explorar modelos de IA e produtos até 2032, incluindo tecnologias desenvolvidas após a chegada da AGI, desde que respeitadas proteções de segurança. No entanto, se a empresa usar a propriedade intelectual da OpenAI para desenvolver a AGI antes da validação do painel, os sistemas devem operar sob limites computacionais previamente definidos — ainda que “maiores” do que os atuais modelos de IA.
Implicações para o Futuro da Parceria
O novo acordo também permite que a Microsoft busque independentemente a AGI em parcerias com terceiros. Portanto, a transparência e a confiabilidade do painel de especialistas serão cruciais para evitar disputas futuras sobre a autenticidade do marco tecnológico.
Em conclusão, a inclusão de mecanismos de fiscalização externa não apenas mitiga riscos de autoavaliação tendenciosa, mas também reforça a credibilidade da parceria. Até que a AGI seja validada, as condições financeiras e técnicas acordadas permanecerão em vigor, garantindo estabilidade para ambos os protagonistas do cenário global de IA.
