A OpenAI implementou recentemente um novo mecanismo para identificar usuários menores de 18 anos no ChatGPT. Essa ferramenta de previsão de idade analisa padrões de comportamento, como horários de uso e declarações de idade, para aplicar restrições automáticas a conteúdos sensíveis. Além disso, o sistema já está ativo no Brasil e em outros países, reforçando a segurança digital para adolescentes.
Como o ChatGPT Identifica Menores de Idade?
O novo modelo da OpenAI avalia diversos fatores para estimar a idade dos usuários. Entre eles, destacam-se:
- Padrões de uso ao longo do tempo;
- Horários de maior atividade;
- Declarações voluntárias de idade.
Caso um usuário confirme ter menos de 18 anos, o ChatGPT aplica imediatamente medidas de proteção. No entanto, mesmo sem uma declaração explícita, o sistema pode detectar indícios e restringir conteúdos inadequados.
Quais Conteúdos São Restritos para Menores?
Ao identificar um usuário como menor de idade, o ChatGPT torna-se mais restritivo. As principais limitações incluem:
- Conteúdos violentos ou gráficos;
- Desafios virais que incentivam comportamentos de risco;
- Encenações sexuais, românticas ou violentas;
- Representações de automutilação;
- Conteúdos que promovem padrões de beleza extremos ou dietas prejudiciais.
Essas medidas são ativadas por padrão para contas identificadas como adolescentes, garantindo um ambiente mais seguro.
O Que Fazer em Caso de Classificação Errada?
A OpenAI reconhece que o mecanismo pode classificar adultos como menores de idade por engano. Portanto, caso isso ocorra, os usuários podem verificar seus dados pela plataforma Persona e restaurar as configurações originais. Essa solução garante que adultos não sejam injustamente limitados.
Em conclusão, o ChatGPT está evoluindo para oferecer um ambiente mais seguro, especialmente para adolescentes. Com essa atualização, a OpenAI reforça seu compromisso com a proteção de menores, ao mesmo tempo em que mantém a flexibilidade para usuários adultos.
