AVISO: Esta reportagem aborda temas relacionados à saúde mental e doenças emocionais. Se, de alguma forma, o assunto causa desconforto em você, recomendamos que interrompa a leitura. O CVV – Centro de Valorização da Vida oferece apoio emocional e prevenção do suicídio, com atendimento voluntário, gratuito e sigiloso. Acesse: www.cvv.org.br
A OpenAI anunciou novas melhorias no ChatGPT para torná-lo mais sensível e preparado em interações com pessoas em situações de angústia emocional ou risco à saúde mental. A atualização, desenvolvida com o apoio de mais de 170 especialistas clínicos e pesquisadores da área, ensina o modelo a reconhecer sinais de sofrimento, desescalar conversas delicadas e encaminhar o usuário para ajuda profissional quando necessário.
Segundo a empresa, o aprimoramento reduziu em 65% a 80% as respostas que não atendiam ao comportamento esperado em diálogos relacionados à saúde mental. Além disso, a OpenAI expandiu o acesso a linhas de apoio emocional, redirecionou automaticamente conversas sensíveis iniciadas em outros modelos para versões mais seguras e adicionou lembretes suaves para pausas em sessões longas.
Os dados divulgados pela empresa revelam a dimensão da questão: cerca de 0,15% dos usuários semanais do ChatGPT — o que representa mais de 1 milhão de pessoas por semana, considerando a base de 800 milhões de usuários ativos da ferramenta — têm conversas com sinais explícitos de planejamento ou intenção suicida.
As melhorias de segurança abrangem três áreas principais:
- Saúde mental, incluindo casos de psicose ou mania;
- Automutilação e suicídio;
- Dependência emocional na IA.
A OpenAI também incluiu novas métricas de verificação em seu processo padrão de testes, que agora abrange “dependência emocional” e “emergências de saúde mental não suicidas”, além dos cenários de risco já monitorados.
Outra mudança importante está na Especificação do Modelo (Model Spec), que passa a deixar explícitos os objetivos éticos de longo prazo: o ChatGPT deve respeitar e fortalecer relações reais, evitar confirmar crenças infundadas associadas a sofrimento mental, responder de modo empático e seguro a sinais de delírio ou mania, e prestar atenção a indícios indiretos de risco de automutilação ou suicídio.
“Nosso compromisso é aprimorar continuamente os mecanismos de segurança e compreender como as pessoas usam o ChatGPT em contextos sensíveis”, informou a OpenAI. A empresa reforçou que o modelo é treinado para encaminhar usuários a recursos profissionais, como linhas de prevenção ao suicídio, sempre que detectar indícios de risco.
Os testes conduzidos com tráfego real e avaliações independentes de profissionais de saúde mental confirmaram o avanço: as respostas inadequadas do modelo caíram em até 80% nas interações envolvendo temas de saúde mental.
A OpenAI afirmou ainda que, mesmo com os avanços, reconhece que essas conversas são raras e difíceis de medir, mas reforça o compromisso de seguir aprimorando os sistemas para que a IA ofereça apoio responsável, empático e seguro a quem mais precisa.
O CVV – Centro de Valorização da Vida oferece apoio emocional e prevenção do suicídio, com atendimento voluntário, gratuito e sigiloso. Acesse: www.cvv.org.br






