Voz Clonada: Especialista Alerta para Golpes no WhatsApp

Golpes com voz clonada no WhatsApp estão crescendo. Saiba como funcionam, como identificar e se proteger de fraudes usando inteligência artificial.

Especialistas em inteligência artificial alertam que golpes usando voz clonada já são uma realidade e representam uma ameaça crescente no WhatsApp. Segundo Giovanni La Porta, CEO da vortice.ai, ferramentas de IA capazes de reproduzir vozes com apenas alguns segundos de áudio estão amplamente disponíveis e sendo usadas em fraudes financeiras.

Como funciona o golpe da voz clonada

O método mais utilizado atualmente envolve ligações silenciosas. O criminoso liga para a vítima, espera alguns segundos de áudio e coleta o material necessário para treinar a clonagem. Quanto mais a vítima falar, mais perfeita fica a cópia da voz.



Após obter o áudio, o fraudador envia uma mensagem de voz pelo WhatsApp fingindo ser um familiar ou amigo e pede uma transferência de dinheiro. Diferente de golpes antigos baseados em texto, o áudio gera mais confiança e reduz a desconfiança imediata do destinatário.

Deepfakes: de laboratório para o uso em massa

A explosão dos deepfakes nos últimos meses está diretamente ligada à evolução dos modelos generativos de vídeo e áudio e à popularização das ferramentas. Giovanni La Porta lembra que as primeiras versões de vídeos gerados por IA eram facilmente identificáveis, como um clássico vídeo do ator Will Smith comendo macarrão, com aspecto claramente artificial.

Hoje, com apenas algumas fotos ou segundos de áudio, já é possível clonar a voz de uma pessoa com alta fidelidade. Há casos documentados de deepfakes usados em reuniões corporativas, incluindo um episódio em que um executivo foi clonado durante uma videoconferência com a diretoria, e as instruções do falso diretor foram seguidas sem questionamento.



Como identificar vídeos manipulados

Para detectar vídeos alterados, La Porta indica um sinal concreto: prestar atenção quando a pessoa vira o rosto. Como os modelos são treinados principalmente com fotos de frente, detalhes de costas, roupa e corte de cabelo costumam apresentar inconsistências.

Aspectos legais e prevenção

Do ponto de vista legal, gerar um deepfake não é, por si só, crime. O enquadramento jurídico depende do uso dado ao conteúdo. Plataformas como TikTok e Instagram já pedem que usuários identifiquem vídeos gerados por IA, e o LinkedIn passou a marcar automaticamente fotos alteradas pela tecnologia.

Especialistas recomendam desconfiar de ligações de números desconhecidos e nunca fornecer informações ou realizar transferências baseadas apenas em áudio. A conscientização e a verificação direta com a pessoa supostamente envolvida são as melhores formas de prevenção.