OpenAI sabe que ChatGPT está causando sérios problemas de saúde mental para usuários e avisa que está "corrigindo" isso
ChatGPT começa a responder de forma diferente quando a conversa se torna sensível OpenAI ajustou modelo com ajuda de especialistas em saúde mental É um passo importante, mas ainda há desafios a serem superados
A OpenAI atualiziu o modelo padrão do ChatGPT com uma ideia muito específica: detectar melhor quando uma conversa entra em terrenesensível e agir com mais cuidado. A empresa afirma ter treinado o sistema com a ajuda de mais de 170 especialistas em saúde mental com experiência clínica recente, com o objetivo de reconhecer sinais de sofrimento, reduzir a tensão e incentivar o usuário a buscar apoio no mundo real quando necessário.
A OpenAI não alterou a interface nem adicionou novos botões, o que fez foi ajustar a forma como o chatbot responde em determinados cenários. Em vez de apenas seguir o fluxo da conversa, a empresa afirma que o sistema consegue detectar sinais de desconforto ou dependência e reagir de forma diferente: com um tom mais empático, lembrando a importância de conversar com outras pessoas ou até mesmo redirecionando a conversa para um ambiente mais seguro.
Não é segredo que existem usuários que o utilizam para desabafar, expressar seus pensamentos ou simplesmente se sentirem ouvidos. Esse tipo de vínculo, tão cotidiano, é o que preocupa muitos profissionais da saúde mental. Este ano, veio à tona o caso de um adolescente que burlou as medidas de segurança do aplicativo antes de cometer suicídio, o que resultou em um processo judicial movido pelos pais contra a OpenAI.
Situações trágicas como a mencionada não são a norma, mas existem outros casos. Se a conversa acabar substituindo o contato humano, o risco pode aumentar. É aí que entram em jogo cenários como ...
Matérias relacionadas
Se você tem um HD antigo que não usa mais, pode dar uma nova vida à sua Android TV ou Chromecast