Saúde mental

ChatGPT recebe atualização para reconhecer sinais de doenças emocionais

Empresa diz que atualização do modelo reduz em até 80% respostas inadequadas em conversas sobre saúde mental e amplia acesso a recursos de apoio em crises

Tempo de leitura: 3 minutos



A OpenAI anunciou novas melhorias no ChatGPT para torná-lo mais sensível e preparado em interações com pessoas em situações de angústia emocional ou risco à saúde mental. A atualização, desenvolvida com o apoio de mais de 170 especialistas clínicos e pesquisadores da área, ensina o modelo a reconhecer sinais de sofrimento, desescalar conversas delicadas e encaminhar o usuário para ajuda profissional quando necessário.

Segundo a empresa, o aprimoramento reduziu em 65% a 80% as respostas que não atendiam ao comportamento esperado em diálogos relacionados à saúde mental. Além disso, a OpenAI expandiu o acesso a linhas de apoio emocional, redirecionou automaticamente conversas sensíveis iniciadas em outros modelos para versões mais seguras e adicionou lembretes suaves para pausas em sessões longas.

Os dados divulgados pela empresa revelam a dimensão da questão: cerca de 0,15% dos usuários semanais do ChatGPT — o que representa mais de 1 milhão de pessoas por semana, considerando a base de 800 milhões de usuários ativos da ferramenta — têm conversas com sinais explícitos de planejamento ou intenção suicida.

As melhorias de segurança abrangem três áreas principais:

  1. Saúde mental, incluindo casos de psicose ou mania;
  2. Automutilação e suicídio;
  3. Dependência emocional na IA.

A OpenAI também incluiu novas métricas de verificação em seu processo padrão de testes, que agora abrange “dependência emocional” e “emergências de saúde mental não suicidas”, além dos cenários de risco já monitorados.

Outra mudança importante está na Especificação do Modelo (Model Spec), que passa a deixar explícitos os objetivos éticos de longo prazo: o ChatGPT deve respeitar e fortalecer relações reais, evitar confirmar crenças infundadas associadas a sofrimento mental, responder de modo empático e seguro a sinais de delírio ou mania, e prestar atenção a indícios indiretos de risco de automutilação ou suicídio.

“Nosso compromisso é aprimorar continuamente os mecanismos de segurança e compreender como as pessoas usam o ChatGPT em contextos sensíveis”, informou a OpenAI. A empresa reforçou que o modelo é treinado para encaminhar usuários a recursos profissionais, como linhas de prevenção ao suicídio, sempre que detectar indícios de risco.

Os testes conduzidos com tráfego real e avaliações independentes de profissionais de saúde mental confirmaram o avanço: as respostas inadequadas do modelo caíram em até 80% nas interações envolvendo temas de saúde mental.

A OpenAI afirmou ainda que, mesmo com os avanços, reconhece que essas conversas são raras e difíceis de medir, mas reforça o compromisso de seguir aprimorando os sistemas para que a IA ofereça apoio responsável, empático e seguro a quem mais precisa.

Tópicos desta reportagem:


Receba em seu email um resumo semanal e GRATUITO com notícias exclusivas e reportagens sobre o mercado de IA no Brasil e no mundo

Subscription Form (#4)