A Nova Falha no ChatGPT Exposta: Como os Cibercriminosos Aproveitam Vulnerabilidades
A Tenable Research identificou sete falhas críticas na plataforma do ChatGPT, permitindo que criminosos acessem dados sensíveis e historial de conversas. Além disso, essas vulnerabilidades podem conceder controle total sobre o chatbot, colocando em risco a segurança dos usuários.
Como Funciona a Injeção de Prompt?
A ameaça central está na técnica de injeção de prompt, onde instruções maliciosas são enviadas ao modelo de IA sem que o usuário perceba. Essas ações são escondidas em fontes externas, como comentários em blogs ou links maliciosos, permitindo que o ChatGPT execute comandos comprometedores.
Dois Métodos de Ataque Revelados
Primeira abordagem: Um hacker insere um prompt malicioso em um comentário. Quando o usuário solicita um resumo da página, o ChatGPT é enganado, executando ações indesejadas. Além disso, ataques de clic zero possibilitam a infiltração sem interação do usuário, como sites indexados na busca do ChatGPT.
Riscos Duradouros e Memory Injection
Os especialistas destacam o risco da memory injection, onde prompts maliciosos são salvos permanentemente no histórico do usuário. Isso permite que dados sejam roubados toda vez que o chatbot é utilizado. Outra técnica envolve links de rastreamento do Bing, coletando informações pessoais de forma invisível.
Desafios para Empresas de IA
Já em entrevista ao Hack Read, James Wickett destacou que a injeção de prompts é um dos maiores riscos para sistemas baseados em modelos de linguagem grande. A OpenAI confirmou as falhas em versões 4o e GPT-5, mas a correção ainda não foi anunciada.
“A recente pesquisa sobre o ChatGPT mostra como criminosos inserem instruções ocultas em links ou histórico, fazendo o modelo agir de forma não projetada”.
