Abordagem Direta: A OpenAI e o Controle de Conteúdo em Áreas Especializadas
A OpenAI não censurou o ChatGPT para assuntos médicos e jurídicos, conforme erroneamente divulgado em redes sociais. O boato surgiu a partir de uma interpretação equivocada das atualizações nas Políticas de Uso da plataforma, publicadas em 29 de outubro. Além disso, a empresa reforçou sua posição em comunicado oficial, esclarecendo que o modelo de IA continua a funcionar como antes.
Contexto das Atualizações das Políticas de Uso
Na sequência das revisões, a OpenAI listou ações que podem comprometer a segurança e o bem-estar de usuários e terceiros. Entre elas, está a proibição de fornecer consultoria personalizada em áreas como medicina e direito sem a supervisão de um profissional licenciado. No entanto, em conclusão, isso não representa uma mudança radical, mas um reforço de diretrizes pré-existentes.
Posicionamento Oficial da OpenAI
Em resposta às especulações, a empresa divulgou um comunicado ao Canaltech destacando que o ChatGPT jamais substituiu profissionais qualificados. Karan Singhal, especialista em saúde da OpenAI, reforçou: “O comportamento do modelo permanece inalterado. Nunca foi um substituto para aconselhamento jurídico ou médico”.
Por Que o Boato Ganhou Tração?
No entanto, a interpretação equivocada surgiu devido à ênfase nas diretrizes sobre consultoria especializada. Em redes como LinkedIn, usuários associaram a atualização a uma proibição total, quando, na verdade, a ferramenta ainda está disponível para orientação educacional.
Recomendações para Usuários
Apesar das ações, o ChatGPT continua a ser uma referência valiosa para compreensão de conceitos jurídicos e médicos. A OpenAI insiste na necessidade de consultar profissionais antes de decisões críticas. Portanto, o modelo não foi restrito; apenas reforçada a responsabilidade do usuário.
