Modelos LLM: Como duas campanhas exploram vulnerabilidades em IAs

Descubra como duas campanhas exploram vulnerabilidades em modelos LLM, ameaçando empresas e dados corporativos. Saiba como se proteger.

Com o avanço acelerado da inteligência artificial (IA), os cibercriminosos identificaram uma nova fronteira de ataques: os modelos LLM. Pesquisadores da GreyNoise revelaram duas campanhas direcionadas que exploram vulnerabilidades nessas tecnologias, somando quase 100 mil casos. Esses ataques não apenas expõem falhas críticas, mas também mapeiam como empresas integram IAs em suas operações.

O cenário dos ataques a modelos LLM

Os especialistas da GreyNoise detectaram 91.403 ataques entre outubro de 2025 e janeiro de 2026. Essas campanhas visaram principalmente modelos LLM usados por corporações, com o objetivo de entender sua implementação e aprimorar estratégias maliciosas. Para identificar essas ameaças, a equipe utilizou honeypots, perfis falsos que atraem criminosos digitais.



Além disso, os ataques demonstram uma evolução nas táticas dos hackers. Enquanto a primeira campanha focou em injetar domínios maliciosos, a segunda testou APIs de serviços como OpenAI, Meta e Google, buscando modelos que respondessem sem acionar alertas de segurança.

Como os ataques se desdobraram

A primeira campanha, ocorrida no final de 2025, teve como alvo a injeção de domínios maliciosos. Esses domínios forçavam servidores a fazer solicitações HTTP à infraestrutura dos hackers. Curiosamente, os pesquisadores atribuem esse ataque a gray hat hackers, profissionais que violam padrões éticos, mas sem intenções claramente maliciosas.

No entanto, a segunda campanha, iniciada em dezembro de 2025, representou uma ameaça mais grave. Os criminosos direcionaram seus esforços para todas as principais famílias de modelos LLM, incluindo aquelas usadas por gigantes como Anthropic, DeepSeek e X. Nesse caso, os invasores realizaram verificações deliberadamente inócuas para identificar modelos vulneráveis, garantindo assim um ataque mais eficiente.



Riscos para o ambiente corporativo

Os modelos LLM tornaram-se alvos estratégicos devido à sua adoção massiva em ambientes corporativos. Ataques bem-sucedidos podem comprometer dados sigilosos, expor informações de funcionários e até mesmo paralisar operações críticas. Portanto, empresas devem adotar medidas de segurança robustas para mitigar esses riscos.

Entre as recomendações estão:

  • Bloquear endereços suspeitos em redes corporativas;
  • Configurar alertas em tempo real para respostas rápidas;
  • Implementar autenticação multifatorial em APIs de IA;
  • Monitorar constantemente o tráfego de dados em modelos LLM.

Em conclusão, a segurança dos modelos LLM exige atenção redobrada. À medida que a IA se torna indispensável, os cibercriminosos refinam suas técnicas. Por isso, empresas e desenvolvedores devem priorizar a proteção desses sistemas para evitar danos irreparáveis.