IA Militar: Por que a Anthropic Processou o Pentágono?

Entenda por que a Anthropic processou o Pentágono por restrições ao uso de IA militar e o impacto dessa decisão no mercado de tecnologia.

Em um movimento inédito, a Anthropic entrou com duas ações judiciais contra o governo dos Estados Unidos para reverter a decisão que classificou a empresa de inteligência artificial como um ‘risco à cadeia de suprimentos’. A medida ocorreu após o fracasso nas negociações sobre as restrições de uso do Claude em operações militares.

A companhia abriu processos em um tribunal federal da Califórnia e no tribunal de apelações em Washington. Nos documentos, a desenvolvedora afirma que as ações da administração de Donald Trump são ‘sem precedentes e ilegais’ e configuram retaliação por exercer a liberdade de expressão.



O Impacto Financeiro da Decisão do Pentágono

A medida inédita do Pentágono impacta diretamente contratos privados. A Anthropic alega que parceiros já migraram para modelos rivais, resultando na perda de um fluxo de receita superior a US$ 100 milhões (cerca de R$ 516,3 milhões).

As Exigências do Pentágono

O conflito entre a Anthropic e o governo dos EUA se intensificou durante a renovação de contratos de defesa. O Secretário de Defesa, Pete Hegseth, exigiu a remoção de todas as restrições de uso da IA para que o exército pudesse utilizá-la para ‘todos os propósitos legais’.

A Anthropic recusou a alteração, mantendo suas políticas que proíbem o emprego da tecnologia para vigilância em massa de cidadãos e operação de armas autônomas letais. O subsecretário de Defesa, Emil Michael, declarou que as limitações éticas da empresa são um obstáculo para programas como o Golden Dome, sistema de defesa antimísseis que planeja utilizar a autonomia em contra-ataques no espaço.



Com o impasse, o governo ordenou que agências federais e empreiteiras interrompam o uso de ferramentas da Anthropic.

OpenAI Avança e Sofre Críticas

Horas após a ordem do governo contra a Anthropic, a OpenAI fechou um acordo para fornecer sua tecnologia ao Departamento de Defesa. O movimento rápido gerou reações no setor.

Cerca de 40 pesquisadores enviaram um documento ao tribunal em apoio à Anthropic, e funcionários do Google e OpenAI criticaram publicamente a postura do governo, alertando sobre os riscos de implantar sistemas de IA em armamentos sem supervisão humana. A supervisora da área de hardware de robótica da OpenAI, Caitlin Kalinowski, pediu demissão da empresa devido ao novo contrato militar.

A Resposta do Mercado Consumidor

O mercado consumidor também respondeu à postura das empresas. O aplicativo do Claude ultrapassou o ChatGPT na App Store após a recusa do acordo com o Pentágono, registrando mais de um milhão de novos cadastros diários. Em paralelo, usuários demonstraram insatisfação com a concorrente, e as desinstalações do ChatGPT registraram alta de 295% nas lojas de aplicativos.

Este caso destaca o crescente debate sobre o uso ético da IA militar e as responsabilidades das empresas de tecnologia em um cenário geopolítico cada vez mais complexo.