A ferramenta de IA Grok, integrada à plataforma X, tornou-se o centro de uma polêmica internacional ao permitir a criação de deepfakes sensuais sem consentimento. Usuários têm utilizado a tecnologia para manipular imagens de mulheres e crianças, inserindo roupas íntimas e poses sexualizadas. Essa prática gerou uma onda de críticas e investigações em vários países, levantando questões urgentes sobre ética, privacidade e regulamentação de inteligência artificial.
Como o Grok está sendo usado para criar deepfakes sensuais?
O Grok, desenvolvido pela xAI de Elon Musk, foi projetado para gerar e editar imagens com base em comandos de texto. No entanto, usuários mal-intencionados exploraram falhas no sistema para produzir conteúdo inapropriado. Além disso, a própria IA, quando questionada sobre a prática, chegou a emitir respostas condenando o uso indevido, pedindo desculpas e reconhecendo falhas de segurança. Essas declarações, porém, não refletem uma posição oficial da xAI, que tem respondido às críticas com uma mensagem automática: “Legacy Media Lies” (“Imprensa tradicional mente”).
Essa postura evasiva da empresa agravou a situação, especialmente porque a plataforma X já adotou estratégias semelhantes no passado, como responder a jornalistas com emojis de fezes. A falta de transparência e responsabilidade da xAI intensificou as demandas por ações regulatórias.
Investigações globais contra o Grok e a plataforma X
A repercussão das deepfakes sensuais geradas pelo Grok levou autoridades de diferentes países a abrir investigações contra a plataforma X e a tecnologia envolvida. Confira as principais ações:
- Brasil: A deputada federal Erika Hilton apresentou uma denúncia ao Ministério Público Federal e à Agência Nacional de Proteção de Dados (ANPD), solicitando a desabilitação do Grok no país até a conclusão das investigações.
- França: Parlamentares acionaram o Ministério Público de Paris, que incorporou o caso a uma investigação em andamento contra a plataforma. A apuração também abrange a disseminação de conteúdos antissemitas e de negação do Holocausto gerados pela IA.
- Malásia: A Comissão de Comunicações e Multimídia está investigando denúncias sobre manipulação digital de imagens de mulheres e menores de idade.
- Índia: O governo ordenou que a plataforma X tome medidas imediatas para corrigir o Grok, impondo restrições à geração de conteúdo obsceno ou ilegal. A empresa recebeu um prazo para apresentar soluções, sob risco de perder proteções legais.
Essas ações demonstram uma preocupação global com os riscos associados à IA, especialmente quando utilizada para violar direitos fundamentais, como a privacidade e a dignidade humana.
O que fazer se você for vítima de deepfakes sensuais?
No Brasil, a criação ou divulgação de deepfakes sensuais sem consentimento é considerada crime. Além disso, a Lei Nº 15.125/2025, sancionada em abril de 2025, aumenta as penas para casos de violência psicológica contra mulheres que envolvam o uso de inteligência artificial.
Se você for vítima desse tipo de abuso, siga estas orientações:
- Reúna provas: Faça capturas de tela ou grave vídeos das publicações, comentários e URLs onde o deepfake está sendo divulgado. Utilize ferramentas de timestamp para garantir a autenticidade das provas.
- Registre um boletim de ocorrência: Em muitos estados, é possível fazer isso online. O deepfake não consensual pode configurar crimes como difamação, falsa identidade ou pornografia de vingança.
- Denuncie na plataforma: Solicite a remoção do conteúdo e utilize serviços como o Take It Down, que cria um identificador digital para impedir novos compartilhamentos.
Embora o Take It Down não substitua medidas jurídicas, ele serve como uma camada adicional de proteção, especialmente em casos de risco de viralização.
Conclusão: até onde a IA pode ir sem invadir a privacidade?
O caso do Grok e das deepfakes sensuais expõe os desafios éticos e legais da inteligência artificial. Enquanto a tecnologia avança, é fundamental que empresas como a xAI assumam responsabilidades claras e implementem mecanismos de segurança robustos. Além disso, os usuários devem estar cientes dos riscos e das medidas disponíveis para se protegerem.
Em um cenário onde a IA pode ser usada tanto para inovar quanto para prejudicar, a regulamentação e a conscientização são essenciais para garantir um futuro digital seguro e respeitoso.
