Os Jogos Olímpicos de Inverno reuniram atletas de todo o mundo na Itália, marcando momentos de glória e superação. No entanto, um lado sombrio dessa competição veio à tona quando usuários do 4chan começaram a criar deepfakes de atletas femininas, explorando imagens íntimas e citações falsas.
Exploração de Inteligência Artificial para Ataques Virtuais
Embora o compartilhamento de imagens falsas e manipuladas de personalidades públicas, principalmente de mulheres, em comunidades online não seja algo novo, a inteligência artificial “otimizou” o processo criminoso, segundo a analista sênior da Graphika, Cristina López G.
Afinal, o recurso tecnológico abriu espaço para que criminosos melhorem a qualidade das imagens falsificadas, além de possibilitar o processo de “nudificação”, que consiste no uso da tecnologia para tirar a roupa de mulheres em fotos com IA.
Segundo a análise, esses usuários do 4chan seguem um padrão na hora de compartilhar as fotos manipuladas: eles publicam o registro não consentido e pedem para que outros membros também postem suas próprias manipulações com IA nas respostas, aumentando a proliferação dessas imagens criminosas, mesmo que as postagens do fórum sejam excluídas de maneira automática.
Considerando que modelos de código aberto são altamente usados por qualquer pessoa disposta a explorar ferramentas de IA, os usuários podem personalizar as fotos do jeito que quiserem, gerando registros falsos e manipulados de qualquer pessoa.
Atletas Afetadas e Casos Anteriores
Entre as esportistas que sofreram o ataque estão as patinadoras artísticas Alysa Liu, Amber Glenn e Isabeau Levito, e as esquiadoras Mikaela Shiffrin e Eileen Gu. Algo parecido ocorreu em 2024 quando imagens íntimas falsas da cantora Taylor Swift surgiram no 4chan e acabaram viralizando nas redes sociais.
Vídeo Manipulado e Desinformação
Para além do caso envolvendo as atletas femininas dos Jogos Olímpicos de Inverno, outro incidente que chamou a atenção durante a competição diz respeito a uma publicação compartilhada no TikTok da Casa Branca que consistia em um vídeo gerado por inteligência artificial.
O vídeo mostra o jogador de hóquei americano Brady Tkachuk zombando de canadenses após a vitória do time estadunidense, que levou a medalha de ouro para casa. A publicação até conta com um aviso que sinaliza o uso de IA, mas o vídeo já foi visualizado milhões de vezes na plataforma.
Tkachuk, por sua vez, se manifestou acerca da postagem, afirmando que não gostou do vídeo. “Não é a minha voz, não são os meus lábios que estão se movendo”, falou à imprensa.
Como se Proteger dos Deepfakes
Especialistas alertam para a necessidade de maior conscientização e medidas de proteção contra o uso malicioso da inteligência artificial. Entre as recomendações estão:
- Verificar a autenticidade de conteúdos antes de compartilhar;
- Utilizar ferramentas de detecção de deepfakes;
- Denunciar conteúdos falsos às plataformas;
- Defender legislações mais rigorosas contra o abuso digital.
A disseminação de deepfakes não apenas viola a privacidade e a dignidade das vítimas, mas também contribui para a desinformação e a erosão da confiança nos meios digitais. É fundamental que governos, empresas de tecnologia e sociedade civil trabalhem juntos para combater esse problema crescente.