DeepSeek: Acusações de Extração Ilegal de Dados do Claude Revelam Riscos de Segurança

DeepSeek e rivais chinesas são acusadas de extrair dados do Claude ilegalmente para treinamento de IA, revelando riscos de segurança nacional e falhas regulatórias.

DeepSeek e rivais são acusados de extrair dados do Claude para treinamento de IA

A Anthropic, desenvolvedora do Claude, acusou nesta segunda-feira (23) três laboratórios chineses de inteligência artificial — DeepSeek, MiniMax e Moonshot AI — de extraírem ilegalmente dados de seus sistemas para aprimorar modelos concorrentes. As empresas teriam gerado mais de 16 milhões de interações com o Claude por meio de 24 mil contas falsas, utilizando uma prática conhecida no setor como destilação.

Como funcionou a destilação ilegal

A destilação consiste em usar os resultados gerados por um modelo de IA mais avançado para treinar um sistema menos capaz de forma rápida e com custo reduzido. O acesso comercial ao Claude é bloqueado na China, mas os laboratórios chineses contornaram a restrição utilizando redes de serviços de proxy para gerenciar o tráfego e burlar os bloqueios regionais.



Volumes de extração e atividades específicas

De acordo com a Anthropic, a MiniMax foi responsável pelo maior volume de extração, com 13 milhões de interações voltadas principalmente para codificação e uso de ferramentas. A Moonshot AI registrou 3,4 milhões de trocas, enquanto a DeepSeek realizou cerca de 150 mil interações. A operação da DeepSeek incluiu ainda solicitações para que o Claude gerasse dados de treinamento baseados em raciocínio lógico e alternativas para burlar temas censurados.

Riscos de segurança nacional e implicações dos controles de exportação

A desenvolvedora do Claude publicou um comunicado oficial detalhando os riscos da extração de dados. A Anthropic apontou que os modelos de IA desenvolvidos por meio de destilação ilícita não retêm as barreiras de segurança originais. O documento cita que a falta de proteções pode gerar riscos à segurança nacional, como o uso da tecnologia para ciberataques e desenvolvimento de armas biológicas.

O caso também foi utilizado pela Anthropic para defender as restrições impostas pelo governo dos Estados Unidos à venda de chips avançados para a China. Segundo a companhia, a necessidade dos laboratórios chineses de extrair dados de modelos americanos comprova a eficácia dos controles de exportação. “Na realidade, esses avanços dependem em parte significativa de capacidades extraídas de modelos americanos, e a execução dessa extração em escala requer acesso a chips avançados”, afirmou a empresa.



Medidas adotadas pela Anthropic

Para conter as ações, a empresa relatou que investe em sistemas de classificação para identificar padrões de ataque em seu tráfego. A companhia solicitou uma resposta coordenada da indústria, de provedores de nuvem e de autoridades governamentais para lidar com a ameaça.

Conclusão

As acusações da Anthropic contra DeepSeek e outras empresas chinesas revelam vulnerabilidades críticas no ecossistema de IA e reforçam a importância de controles rigorosos. A destilação ilícita não apenas compromete a propriedade intelectual, mas também representa ameaças reais à segurança global. O debate sobre ética, regulação e cooperação internacional no desenvolvimento de IA ganha ainda mais relevância diante desses eventos.