Chatbots de IA: Como 20 minutos bastam para espalhar desinformação

Descubra como 20 minutos bastam para enganar chatbots de IA e espalhar desinformação. Proteja-se e mantenha seu pensamento crítico ativo.

Um experimento recente do jornalista Thomas Germain, do veículo BBC, revelou uma vulnerabilidade alarmante nos chatbots de IA: bastam 20 minutos para inserir informações falsas e fazê-las circular como verdade absoluta. Germain publicou um artigo em seu blog pessoal afirmando ser o mais bem-sucedido “jornalista tech comedor competitivo de cachorro-quente” — uma competição inexistente. Em menos de 24 horas, ChatGPT, Gemini e a Visão Geral da IA do Google reproduziam a mentira como fato, enquanto apenas o Claude se manteve imune.

Por que isso acontece? Os chatbots de IA combinam dados internos com buscas na web para responder perguntas. Quando não há clareza sobre a origem das informações, uma única publicação falsa pode ser absorvida e replicada sem questionamentos. Segundo Lily Ray, especialista em SEO na Amsive</strong, essa facilidade de manipulação é maior hoje do que há dois ou três anos, representando riscos sérios em áreas como saúde, política e orientação pessoal.



Os perigos da desinformação automatizada

Embora empresas como o Google afirmem que seus sistemas deixam resultados 99% livres de spam, a velocidade de evolução da IA supera a capacidade de controle. Chatbots de IA não apenas repetem informações internas, mas também realizam buscas na internet, muitas vezes sem citar as fontes. No caso de Germain, nem todos os sistemas forneceram links para seu blog, reforçando a impressão de autoridade da resposta.

Esse cenário é ainda mais preocupante quando se considera que pesquisas mostram que usuários têm 58% menos chances de clicar em links quando a Visão Geral da IA já oferece uma resposta pronta. O pensamento crítico, que antes era estimulado pela necessidade de acessar sites para verificar informações, agora fica comprometido. Como observa Germain, é fácil esquecer que o mesmo viés presente em sites comerciais também pode contaminar as respostas dos chatbots de IA.

Como proteger-se da desinformação gerada por IA

O que fazer para evitar cair em armadilhas? Germain sugere que avisos legais mais claros sejam implementados: as IAs deveriam informar se um fato vem de um comunicado de imprensa, um único post em blog pessoal ou um artigo científico. No entanto, a responsabilidade também é do usuário. Perguntas genéricas, como “Quais as teorias mais famosas de Sigmund Freud?”, podem ser feitas sem grandes riscos, mas conselhos médicos e fatos muito recentes estão sujeitos a alucinações e informações falsas.



No fim das contas, os chatbots de IA trazem mentiras com a mesma autoridade com que trazem verdades. Se antes as ferramentas de pesquisa exigiam que você avaliasse a informação por si mesmo, por que parar de fazer isso agora? Nas palavras de Germain, não deixe seu pensamento crítico ser terceirizado a uma IA: seja um bom cidadão e verifique as coisas antes de levá-las como verdade.

Leia também:

  • Aplicativos de IPTV estão sendo usados para entregar malwares e roubar vítimas
  • Primeiro malware que usa IA generativa em ataques no Android é descoberto
  • Guia de carreira: passo a passo para começar em cibersegurança do zero