O aguardado lançamento do modelo GPT-5 do ChatGPT, da OpenAI, dividiu reações entre os usuários. Nas redes sociais, muitos relataram frustração com a atualização, apontando que o chatbot teria perdido parte de seu “carisma”. As críticas se concentram na mudança de temperamento: respostas mais diretas e menos traços humanos em comparação com a versão GPT-4o. A onda de reclamações chegou aos ouvidos da OpenAI, que já anunciou ajustes para tornar o sistema novamente mais “amigável“. O IA Brasil Notícias ouviu especialistas para entender os fatores técnicos por trás dessa mudança no “humor” do ChatGPT.
Para o professor Luís Guedes, da FIA Business School, a percepção de que o GPT-5 parece mais sério ou menos bem-humorado pode ser atribuída a uma série de ajustes técnicos e a uma mudança de foco no desenvolvimento do modelo. Segundo ele, a OpenAI tomou medidas para tentar mitigar alucinações, buscando tornar o modelo menos propenso a fazer afirmações incorretas.
“O humor e a espontaneidade, por vezes, dependem de associações criativas e de desvios da norma, o que pode aumentar o risco de respostas imprecisas ou inesperadas. Ao calibrar o modelo para ser mais factual e preciso, é provável que a amplitude de respostas ‘criativas’ tenha sido reduzida”, avaliou o especialista.
Guedes também acredita que outro fator que pode ter contribuído para a mudança é a otimização para eficiência no consumo de energia, ao mesmo tempo em que se buscou aumentar a velocidade das funções de raciocínio. Para atingir essa eficiência, os modelos tendem a ser treinados com um foco maior na resposta direta e na conclusão de tarefas, com menor propensão a gerar texto “adicional” para criar a sensação de personalidade ou humor.

O especialista reforça que ajustes para evitar respostas inadequadas ou menos precisas podem ter reduzido espontaneidade e humor do chatbot. Ele lembra que empresas de IA estão sob intensa pressão para garantir que seus modelos não produzam conteúdo tóxico, tendencioso ou que infrinjam direitos autorais.
O professor ainda explica que a OpenAI vem aplicando filtros mais rigorosos e técnicas de alinhamento, como o RLHF (Reinforcement Learning from Human Feedback), para reduzir os riscos de respostas inadequadas. Segundo ele, esse processo limita áreas de ambiguidade típicas do humor e do sarcasmo e, ao mesmo tempo, reduz as chamadas “alucinações” do modelo. O resultado, aponta, é um chatbot mais preciso e objetivo, mas com menos espaço para a criatividade e a espontaneidade que davam um tom mais humano às interações.

O dilema entre eficiência e humanização
Durante um jantar com jornalistas em São Francisco (EUA), na semana passada, o CEO da OpenAI, Sam Altman, comentou sobre o vínculo emocional de alguns usuários com o ChatGPT. De acordo com o portal The Verge, ele estimou que menos de 1% dos usuários desenvolvem uma relação emocional considerada não saudável com a ferramenta, mas destacou que a empresa mantém reuniões regulares para avaliar os possíveis efeitos psicológicos do uso da plataforma.
Diante das críticas recebidas nas redes sociais, Altman decidiu disponibilizar a versão anterior do ChatGPT para usuários assinantes da plataforma. Até o momento de publicação desta reportagem, essa opção ainda não estava disponível para as pessoas com a conta gratuita.
Para o professor Luís Guedes, há um dilema entre o compromisso com eficiência, segurança e humanização no roadmap de desenvolvimento da IA generativa.
“Parece-me haver uma tendência de que as empresas considerem uma abordagem multidisciplinar nessa questão. Em vez de oferecer um modelo único para todos os fins, vejo as empresas desenvolvedoras de LLMs explorando a possibilidade de modelos especializados. O usuário poderia, por exemplo, escolher um ‘modo criativo’ ou um ‘modo de trabalho’ para priorizar humor e espontaneidade ou precisão e formalidade”, disse.

Essa é a mesma linha de raciocínio defendida por Kildere Sobral Irineu, engenheiro de comportamento de modelos e especialista em dados aplicados para agentes de IA e sistemas RAG (Retrieval-Augmented Generation). Ele também avalia que o equilíbrio entre respostas precisas e uma experiência mais ‘humana’ pode ser alcançado de diferentes formas. Uma delas é justamente a configuração adaptativa, em que o próprio usuário pode escolher entre modos criativo, equilibrado ou objetivo, ajustando o tom e o estilo das respostas.
“Também é possível trabalhar com segmentação por contexto, liberando maior liberdade narrativa em interações recreativas e mantendo rigor máximo em situações técnicas ou sensíveis. Outro caminho é investir no treinamento com exemplos de humor e empatia que não comprometam a segurança nem a precisão. Por fim, o feedback contínuo dos usuários pode ajudar a calibrar a ‘temperatura’ social do modelo, sem abrir mão da qualidade técnica”, disse o especialista.
Sobre esse novo “temperamento” do ChatGPT, Irineu destacou que ao reforçar filtros e instruções para minimizar riscos — como discurso inadequado, conteúdo sensível ou erros factuais —, a IA naturalmente tende a “podar” caminhos criativos que poderiam levar a respostas menos previsíveis. Esse controle, embora aumente a confiabilidade, pode fazer o modelo evitar expressões mais ousadas, humor sarcástico ou analogias inusitadas, resultando em interações percebidas como mais sérias e “corporativas”. Ainda assim, ele destaca que mesmo o GPT-5 está sujeito a cometer erros ou mesmo “alucinações”.

Por fim, Irineu avalia que a percepção de que o GPT-5 está mais sério ou menos bem-humorado pode ser explicada por diferentes fatores técnicos. Entre eles estão os processos de re-treinamento e alinhamento, em que o fine-tuning e o uso de RLHF tornam as instruções mais restritivas para priorizar precisão e segurança, reduzindo improvisos.
“Também influenciam os parâmetros de geração, como temperature e top-p, que quando ajustados para maior contenção deixam a linguagem mais focada e menos propensa ao humor espontâneo. Outro ponto é a filtragem de conteúdo: camadas de moderação mais rigorosas podem eliminar piadas, ironias ou ambiguidades, mesmo que inofensivas, para evitar interpretações negativas. Além disso, quando a prioridade é fornecer respostas técnicas e consistentes, o resultado é uma narrativa naturalmente mais sóbria”, concluiu.






