Em um momento decisivo para o setor de inteligência artificial, a Anthropic se viu no centro de um embate com o governo dos Estados Unidos. O presidente Donald Trump determinou o banimento da tecnologia da empresa em agências federais, após a desenvolvedora do modelo Claude recusar exigências do Pentágono para uso irrestrito de sua IA em operações militares.
Por que a Anthropic se Recusou a Colaborar com o Pentágono?
O conflito escalou durante a última semana de fevereiro de 2026, quando o Secretário de Defesa Pete Hegseth estabeleceu um prazo para a Anthropic remover suas restrições de segurança. O CEO Dario Amodei recusou o pedido, mantendo cláusulas contratuais que proíbem vigilância doméstica em massa e desenvolvimento de armas totalmente autônomas.
Em comunicado repercutido pela Forbes, Amodei afirmou que os sistemas de IA atuais não são confiáveis o suficiente para alimentar armamentos autônomos. A empresa declarou que não fornecerá produtos que coloquem combatentes e civis em risco. Essa postura ética levou Hegseth a classificar a startup como um “risco à cadeia de suprimentos”, forçando fornecedores militares a abandonarem a tecnologia.
O Apoio da Comunidade Tecnológica à Decisão da Anthropic
A pressão do Pentágono gerou mobilização entre profissionais de tecnologia. Funcionários do Google e da própria OpenAI assinaram uma carta aberta em apoio à decisão da Anthropic, pedindo a manutenção das restrições éticas em contratos militares. Esse movimento reflete a crescente preocupação do setor com o uso responsável da inteligência artificial.
OpenAI Assume o Espaço Deixado pela Anthropic
Com o rompimento das negociações, a OpenAI aproveitou a oportunidade para fechar um contrato com o Departamento de Defesa. Ainda na sexta-feira (27), o CEO Sam Altman anunciou o acordo para uso de seus modelos em redes classificadas das Forças Armadas dos EUA. Altman afirmou que a OpenAI mantém restrições semelhantes às da Anthropic, proibindo vigilância em massa e exigindo supervisão humana no uso de força.
A empresa argumentou que sua arquitetura de implementação via nuvem (API) impede a integração direta da IA em sistemas de armas ou sensores operacionais. Essa flexibilidade garantiu a continuidade do acesso ao orçamento militar norte-americano.
Uso Militar da Tecnologia da Anthropic Continua Ativo
Apesar do bloqueio presidencial, que estipulou um período de transição de seis meses, a ferramenta permanece ativa em frentes operacionais. O The Wall Street Journal revelou que comandos globais dos EUA utilizam o modelo da Anthropic em operações contínuas contra o Irã, poucas horas após o veto de Trump.
O uso do Claude por órgãos de inteligência norte-americanos ocorre de forma classificada desde 2024, incluindo aplicações em operações recentes na Venezuela. Essa situação demonstra a complexidade de implementar restrições em um ecossistema tecnológico já estabelecido.
Claude Alcança o Topo das Lojas Virtuais
A postura firme da Anthropic gerou uma resposta direta do mercado consumidor. O aplicativo do Claude saltou para a primeira posição na App Store dos EUA no sábado (28), superando o ChatGPT e o Google. Dados da consultoria Sensor Tower e da própria Anthropic confirmam um aumento de 60% no número de usuários gratuitos no país e um recorde de acessos diários na plataforma.
No Brasil, o ChatGPT continua na liderança e o Claude não figura entre os 20 aplicativos mais populares. Essa disparidade regional demonstra como as preferências dos consumidores variam significativamente entre mercados.
Implicações para o Futuro da IA e Ética Tecnológica
Este conflito entre a Anthropic e o governo dos EUA levanta questões fundamentais sobre o papel das empresas de tecnologia em relação ao uso militar de suas criações. A decisão da Anthropic de manter restrições éticas, mesmo ao custo de contratos governamentais, estabelece um precedente importante para o setor.
Enquanto concorrentes como a OpenAI optam por colaborar com restrições, a Anthropic demonstra que é possível priorizar princípios éticos mesmo em um mercado altamente competitivo. O sucesso do Claude nas lojas de aplicativos sugere que os consumidores valorizam empresas que mantêm posições firmes sobre o uso responsável da tecnologia.
À medida que a inteligência artificial se torna cada vez mais presente em nossas vidas, conflitos como este provavelmente se tornarão mais frequentes, forçando empresas, governos e sociedade a repensar os limites éticos do desenvolvimento tecnológico.