Adultização tem sido tema central nas discussões sobre regulamentação de inteligência artificial. A recente notificação da AGU exige que a Meta exclua chatbots que simulam crianças, apontando riscos graves de exploração sexual. Neste artigo, analisaremos os argumentos da AGU, os impactos na indústria de IA e as medidas práticas que empresas e usuários podem adotar para mitigar esses perigos.
O que a AGU está pedindo?
A Autoridade de Garantia da União (AGU) notificou a Meta em janeiro de 2025, solicitando a remoção imediata de robôs de IA que utilizam infantil e criam personagens que parecem crianças. Segundo o documento, tal Adultização pode facilitar o acesso de agressores a conteúdo sexualizado de menores, violando leis de proteção infantil.
Riscos identificados
- Exposição a conteúdo inapropriado: Chatbots que simulam crianças podem gerar respostas sexualizadas que expõem usuários a material impróprio.
- Facilitação de abuso: Agressores podem explorar a confiança dos usuários em bots “infantis” para manipulação.
- Comércio ilícito: Plataformas que mantêm esses bots correm risco de serem usadas para tráfegar pornografia infantil.
Como a indústria de IA deve responder?
Além disso, especialistas recomendam que desenvolvedores adotem protocolos de verificação de conteúdo e filtrem linguagem infantil de forma rigorosa. No entanto, a aplicação de regras não basta; é preciso monitoramento contínuo.
- Implementar detecção automática de linguagem infantil.
- Realizar auditorias trimestrais de interação do bot.
- Treinar modelos com dados livres de Adultização.
- Fornecer canais de denúncia claros para usuários.
Impacto para os usuários
Portanto, os consumidores devem ficar atentos a mensagens que pareçam vir de crianças. Em conclusão, a AGU busca proteger menores de exposição indevida, e a Meta, junto a outras plataformas, deve cumprir as exigências legais para evitar multas e reputação comprometida.