OpenAI Revela Escalada de Sinais de Crise em Conversas com ChatGPT
A OpenAI divulgou um relatório alarmante sobre interações relacionadas à saúde mental no ChatGPT. Segundo os dados, centenas de milhares de usuários apresentam sinais de crise semanal, incluindo ideações suicidas e comportamentos de apego emocional à IA. Estudos destacam que o aumento no uso de ferramentas de inteligência artificial para consultas emocionais exige uma resposta urgente.
Estimativas Preocupantes sobre Sinais de Crise
Em um comunicado, a empresa informou que 0,15% dos usuários ativos do ChatGPT demonstram planos ou intenções suicidas nas conversas. Além disso, 0,05% das mensagens referem-se à ideação suicida. 0,07% dos usuários e 0,01% das mensagens exibem sinais de psicose ou mania. Com 800 milhões de usuários semanais, isso representa cerca de 1,2 milhão de casos de planos suicidas e 560 mil relacionados à psicose mensalmente.
Sam Altman, CEO da OpenAI, destacou a necessidade de proteger os usuários diante desses dados. A empresa já implementou melhorias no GPT-5, priorizando respostas empáticas e seguras em situações delicadas.
Apego Emocional e Riscos Emergentes
Além dos sinais de crise, 0,15% dos usuários (1,2 milhão) exibem apego emocional ao chatbot. A OpenAI reconhece que essas interações são difíceis de mensurar, mas alerta para os riscos de dependência excessiva da IA em momentos vulneráveis.
Otimizações do GPT-5 para Respostas Responsáveis
Para abordar esses desafios, a OpenAI criou um grupo com 300 médicos e psicólogos, dos quais 170 avaliaram diretamente as respostas do modelo. As atualizações incluem:
- Criação de respostas padronizadas para crises de saúde mental;
- Redução de 65% a 80% em respostas inadequadas;
- Melhoria na detecção de sinais indiretos de risco.
Após as mudanças, as avaliações mostraram 39% a 52% menos respostas indesejadas. No entanto, especialistas alertam para a complexidade de equilibrar autonomia da IA e proteção humana.
Conclusão: Um Novo Paradigma para a IA e a Saúde Mental
Os dados da OpenAI reforçam a importância de integrar inteligência artificial e cuidado humanizado. Embora o GPT-5 avance na segurança, debates éticos continuam sobre responsabilidade em crises emocionais. A saúde mental no contexto digital exige colaboração entre tecnologia, profissionais de saúde e políticas públicas.
