Nova Falha no ChatGPT: Riscos de Roubo de Dados e Injeção de Prompt Explorados

Descubra a nova falha no ChatGPT que permite injeção de prompt e roubo de dados. Entenda os riscos e como se proteger.

A Nova Falha no ChatGPT Exposta: Como os Cibercriminosos Aproveitam Vulnerabilidades

A Tenable Research identificou sete falhas críticas na plataforma do ChatGPT, permitindo que criminosos acessem dados sensíveis e historial de conversas. Além disso, essas vulnerabilidades podem conceder controle total sobre o chatbot, colocando em risco a segurança dos usuários.

Como Funciona a Injeção de Prompt?

A ameaça central está na técnica de injeção de prompt, onde instruções maliciosas são enviadas ao modelo de IA sem que o usuário perceba. Essas ações são escondidas em fontes externas, como comentários em blogs ou links maliciosos, permitindo que o ChatGPT execute comandos comprometedores.



Dois Métodos de Ataque Revelados

Primeira abordagem: Um hacker insere um prompt malicioso em um comentário. Quando o usuário solicita um resumo da página, o ChatGPT é enganado, executando ações indesejadas. Além disso, ataques de clic zero possibilitam a infiltração sem interação do usuário, como sites indexados na busca do ChatGPT.

Riscos Duradouros e Memory Injection

Os especialistas destacam o risco da memory injection, onde prompts maliciosos são salvos permanentemente no histórico do usuário. Isso permite que dados sejam roubados toda vez que o chatbot é utilizado. Outra técnica envolve links de rastreamento do Bing, coletando informações pessoais de forma invisível.

Desafios para Empresas de IA

Já em entrevista ao Hack Read, James Wickett destacou que a injeção de prompts é um dos maiores riscos para sistemas baseados em modelos de linguagem grande. A OpenAI confirmou as falhas em versões 4o e GPT-5, mas a correção ainda não foi anunciada.



“A recente pesquisa sobre o ChatGPT mostra como criminosos inserem instruções ocultas em links ou histórico, fazendo o modelo agir de forma não projetada”.