Fazer terapia com um chatbot pode não ser uma boa ideia por uma série de motivos, como muitos especialistas têm alertado.
Mas e quando os próprios terapeutas passam a usar inteligência artificial generativa, como ChatGPT e Gemini, para auxiliar em suas tarefas, seja para transcrição de sessões ou até discutir casos?
Empresas já estão oferecendo esse serviço aos profissionais. Há ferramentas para transcrição de sessões, sugestões de análise técnica, evolução do paciente, supervisão e sugestões de abordagens.
"Você ainda perde tempo escrevendo resumo de sessão?", diz o anúncio de uma dessas ferramentas, no Instagram, a PsicoAI.
Outra plataforma, a PsiDigital, promete automatização de relatórios e laudos, criação de página de divulgação personalizada e até "sugestões de intervenção baseadas nos principais autores de cada abordagem terapêutica." (veja entrevista com criador da plataforma abaixo)
As empresas dizem que essas tecnologias não devem substituir os profissionais, mas apoiá-los.
A adesão profissional é uma realidade. A BBC News Brasil procurou 50 psicólogos nas redes sociais e questionou se eles fazem uso de algum tipo de IA no trabalho.
Dos que responderam, dez confirmaram que fazem uso da tecnologia para tarefas como transcrições de sessões de terapia e resumos.
O uso de IA entre estes profissionais não é proibido.
Em julho, o Conselho Federal de Psicologia (CFP) reconheceu que o uso "já vem sendo incorporado ao cotidiano em múltiplos contextos de atuação" e ressaltou a necessidade da supervisão crítica e discernimento ético, mas sem restrições específicas. E diz que cabe a cada profissional a avaliação de limites e riscos dessas ferramentas.
Psicólogos testam usos com consentimento de paciente
Maísa Brum é psicóloga especializada em avaliação neuropsicológica. Seu trabalho envolve realizar longas entrevistas com pacientes, coletar dados e depois produzir laudos técnicos com essas informações.
Por algum tempo, ela terceirizou essa tarefa de transformar anotações em um documento técnico para um estagiário. Mas logo percebeu que os textos chegavam sempre com um mesmo padrão, "pouco humanizados" e, ao questioná-lo, descobriu que ele estava usando o ChatGPT para a tarefa.
"O laudo tem sempre uma sequência, com descrição dos dados, objetivo da avaliação, testes que foram aplicados. É um esqueleto técnico", explica.
Foi aí que ela decidiu aprender mais sobre a tecnologia. Fez alguns cursos e então incorporou algumas dessas ferramentas em parte de suas tarefas.
Hoje ela usa um gravador com IA embutida, que transcreve as entrevistas com os pacientes e devolve já com uma linha do tempo dos fatos e informações no formato necessário para escrever o laudo, que depois é revisado manualmente. Um formulário de consentimento é dado a cada paciente para que saibam que estão sendo gravados com a tecnologia.
"Tem sido muito útil e facilitado bastante a minha vida de escrita", afirmou, destacando que apaga os arquivos após uso para evitar armazenamento externo. Maísa diz que o recurso serve apenas como apoio, não como ferramenta diagnóstica. "Minha grande preocupação é no uso inadequado da IA para terceirizar o pensamento crítico e o raciocínio clínico".
Eduardo Araújo, psicólogo e professor universitário, diz que tem usado IA para análise e organização de dados, mas não diretamente com pacientes e sim em pesquisas, como fez em seu mestrado na área.
Ele fez um experimento com o ChatGPT, quando analisava dados em uma tabela com centenas de pacientes. O objetivo do estudo era identificar a influência de experiências traumáticas em crianças e adolescentes, a partir de uma lista com dados de mais de 500 pacientes, de forma anonimizada. "Para esse tipo de tarefa, de análise de dados, acaba sendo muito útil."
Araújo avalia que é preciso ter cautela com ferramentas que prometem ajudar com diagnóstico. Ele diz que a tecnologia acelera tarefas burocráticas, mas nunca deve formular hipóteses diagnósticas no lugar do profissional.
"Quando você pesquisa algum sintoma na internet, se levar a sério o que vem de resultado, você acha que vai morrer. Com a IA não é diferente: se você coloca algum sintoma, a resposta me dá uma gravidade diferente daquilo que se perceberia na clínica, em contato com a pessoa."
'A psicologia não vai ser substituída, mas pode mudar'
A psicóloga Patrícia Mourão De Biase disse à BBC News Brasil que entrou em contato com IA por curiosidade, principalmente com o boom de informação sobre o tema que recebeu neste ano. "Temos a opção de sermos atropelados ou entender o que está acontecendo e caminhar junto", diz ela.
De Biase diz que, desde a pandemia, tem havido mais flexibilização entre psicólogos no uso de tecnologias, principalmente em relação ao atendimento remoto de pacientes. "Ficamos mais flexíveis para entender esses movimentos da tecnologia. A categoria sempre foi mais quadradinha nesse sentido, mas precisou se adaptar. Vejo ainda muitos colegas se esquivando da IA."
De Biase, que presta serviço para empresas e também atende em consultório, diz que tem utilizado a ferramenta para automatizar tarefas burocráticas e também para criar novos conteúdos para suas sessões.
"Crio enquetes e passo tarefas de casa para os pacientes. Isso refresca a conexão entre uma sessão e outra."
Ela diz que a IA também tem sido usar para "pensar junto" com os psicólogos. "Quando acaba a sessão, colocamos conteúdo e a própria IA diz: poderia abordar por aqui, por ali. Não tenho preconceito com isso, embora eu não use no dia a dia."
Outra tarefa que se tornou comum é a de transcrição e transformação das sessões em prontuário, que depois são revisados de forma manual. "É importante que os pacientes estejam de acordo, que assinem um documento. Mas até hoje ninguém recusou", diz.
A psicóloga avalia que a tecnologia não vai substituir a profissão. "Tem gente que não sabe nem o que perguntar ao ChatGPT. Ele é bom? Sim, pode ajudar em algo pontual, em um momento de ansiedade, de angústia. Mas se não aprendemos direito a perguntar, provavelmente ele não vai entregar. Nada precisa jogar fora. Pegue o que o chat disse e depois leve para a sessão, converse com o terapeuta sobe isso."
"Gerenciar o tempo é padrão ouro para todos. e a IA otimiza bastante isso. Me instiga a buscar mais fontes. Se eu puder deixar um recado, é para que as pessoas não fiquem com medo. Que mergulhem. A psicologia não vai ser substituída, mas pode mudar."
'A IA quer oferecer respostas rápidas. Mas terapias são cenários de incerteza', diz especialista
Segundo Rodrigo Martins Leite, psiquiatra e psicoterapeuta do Centro de Saúde da Comunidade da Unicamp (CECOM), o uso de inteligência artificial entre psicólogos é uma realidade presente, porém ainda pouco debatida pela classe.
"É algo que está emergindo no mercado e a gente, enquanto terapeuta, precisa começar a discutir com o devido cuidado."
Embora reconheça a utilidade prática, Leite alerta para os riscos de confundir a ferramenta com o profissional.
"Ferramentas de transcrição poupam tempo de trabalho administrativo. A grande questão é quando a IA começa a se confundir com o terapeuta. É algo que levanta uma série de questões éticas, do próprio papel do profissional."
O especialista observa que a pandemia consolidou uma "realidade irreversível", na qual "a IA só vem somar nesse contexto de mudança tecnológica." Contudo, ele aponta o que considera lacunas quanto à confidencialidade.
"Não existe nenhum recurso de anomização das informações, por exemplo, o que pode ferir a Lei Geral de Proteção de Dados. Há uma série de lacunas legislativas e éticas que não foram suficientemente discutidas. Um terapeuta que relata casos para uma IA, conta a história de vida de uma pessoa e ainda pede ajuda para pensar no caso. Como regular isso?"
Leite defende a necessidade de desmistificar a tecnologia, separando a ferramenta da fantasia de um saber superior.
"A IA não é um oráculo. Isso é uma fantasia, um desejo humano de que exista algo superior. Mas a IA utiliza banco de dados e a própria internet para gerar conteúdo. Do mesmo jeito que ha informações valiosas, há outras de péssima qualidade e até de conteúdo fraudulento."
Entre os aspectos positivos, ele destaca o potencial da IA para ampliar a capacidade reflexiva, organizar o raciocínio clínico e auxiliar no preparo de sessões.
"Podemos ser mais criativos, criar materiais didáticos, imagens. É um estímulo ao pensamento do terapeuta."
No entanto, o psiquiatra é enfático ao afirmar que a tecnologia não substitui a formação profissional, baseada essencialmente na troca humana.
"Existem etapas fundamentais. Nossa formação é baseada na supervisão humana. Nos formamos a partir da experiência de outro profissional, que vai nos orientando, discutindo como estamos vendo os casos. A IA não pode substituir isso."
Além disso, a ferramenta carece de profundidade para compreender diferentes linhas teóricas e conceitos complexos.
"Se não estudarmos as teorias, a IA não vai fazer isso pelas pessoas. Vai, no máximo, oferecer um compilado superficial de teorias."
Outro ponto crítico é a velocidade das respostas geradas pela IA, que pode criar uma falsa sensação de clareza em cenários terapêuticos marcados pela incerteza.
"Isso gera uma ilusão de que a situação está muito clara. Terapias são cenários de incerteza, ambiguidade, de não saber o que está acontecendo. Já a IA sabe tudo. Vai na contramão de um princípio básico das psicoterapias, de que existe um tempo para elaborar certas questões e problemas. Que o paciente precisa de um tempo para entender. Que respostas não são tão fáceis. Em um mundo imediatista, isso é extremamente perigoso."
Para Leite, o psicólogo não deve tentar competir com a velocidade da máquina, sob o risco de comprometer o processo de elaboração.
"A ferramenta acaba por reduzir a tolerância do terapeuta sobre não saber. Muitas vezes não sabemos como intervir, e isso não é necessariamente ruim. É a janela para refletir melhor os casos, buscar supervisão. Terapia exige tempo, mergulho."
Por fim, ele reforça que o uso de IA exige o consentimento explícito do paciente para evitar violações éticas e legais.
"Há dados sensíveis, o paciente tem o plano direito de saber e, depois, concordar ou não, inclusive com uso de termo de consentimento. Não há uma regra sobre isso hoje, mas é uma questão de proteção ética e legal."
'Nossa plataforma não substitui o profissional'
A plataforma Psidigital oferece aos clientes o que chama de um "assistente virtual" nas sessões, "capturando os principais pontos enquanto você [o psicólogo] se concentra no paciente".
A ferramenta promete gerar automaticamente um "relatório completo ou laudo psicológico de forma detalhada e estruturada, com sugestões e insights para as próximas etapas do tratamento ou seleção de candidatos."
Promete também "sugestões de intervenção baseadas nos principais autores de cada abordagem terapêutica, como Freud, Jung, Winnicott", dentre outros.
O engenheiro mecânico Gustavo Landgraf, criador da Psidigital, teve a ideia de criar um programa que ajudasse psicólogos junto com sua esposa, Leilane, que é psicanalista.
"Ela fazia anotações durante e depois das sessões e tinha um monte de papeis", lembrou.
O projeto começou com a criação de um sistema que ajudaria com agenda, prontuário eletrônico e cadastro de pacientes, por exemplo. "Em um mês e pouco ficou pronto. Ajustamos e passamos para alguns profissionais", disse.
Em 2024, veio a ideia de incorporar inteligência artificial. "Tive um insight: e se houvesse um assistente dentro da terapia, da sua sessão, que anotasse tudo que você falou e tudo que o paciente falou, e depois entregasse um relatório detalhado do que aconteceu. Será que ajudaria?"
Gustavo lembra que a esposa adorou a ideia. Uma das dificuldades dos terapeutas, disse, é justamente dividir a atenção entre o paciente e o bloco de notas.
"Quando procurei na internet só achei sistemas de gestão, como o que eu tinha criado. Mas não tinha nada parecido com esse assistente, que acabei criando. Fomos os primeiros a fazer", afirmou.
Landgraf disse que houve resistência inicial, especialmente pelo receio de ter uma gravação com as falas dos pacientes. Então decidiu que a plataforma não guardaria nenhuma gravação nem transcrição, que são descartadas ao fim de cada sessão.
O que fica armazenado, explica, é um resumo, que segue a abordagem definida por cada psicólogo.
Ele diz que há proteção dos dados por criptografia e também por um sistema com duas senhas, uma para entrar na plataforma e outra abrir os prontuários dos pacientes. "Também incentivamos que, ao cadastrar o paciente, que sejam usados nomes genéricos, não o nome real da pessoa."
Outra vantagem, destaca ele, é que a tecnologia não perde nenhum momento da sessão.
"Muitas vezes o terapeuta está ali escutando e passa algo pela cabeça, seja pagar uma conta ou buscar filho na escola. Nesses lapsos o profissional pode acabar perdendo algo importante do que foi falado. A inteligência artificial não tem distração."
Ele destaca que alguns clientes da plataforma atendem até nove pacientes por dia, o que fazia com que muitos deixassem o trabalho de organizar as anotações das sessões para o fim de semana.
"As pessoas dizem: seu sistema me fez ganhar o fim de semana. Hoje conseguem, antes da sessão, pegar o que já foi falado, o resumo. Além disso, a inteligência artificial consegue criar questões para abrir a sessão seguinte."
Ele destaca que é "desejável" buscar o consentimento dos pacientes antes de fazer uso da tecnologia.
"Como plataforma não tenho como garantir que os profissionais vão fazer isso. A pessoa pode falar que fez e não fazer. Mas sugerimos que peça esse consentimento."
Afirma, no entanto, que o modelo manual não garante necessariamente mais privacidade. "Muitos profissionais fazem anotação em papel e deixam isso numa pasta. E se essa pasta for roubada? Quando uma pessoa está tomando notas, ela não pede permissão. Ainda assim, de forma geral, incentivamos a comentar com o paciente que a ferramenta está sendo usada."
Ele destaca que o uso da plataforma é mais vantajoso em relação a usar uma IA genérica, como o ChatGPT, por uma série de motivos: a agilidade em receber os resumos, a segurança de não deixar nenhuma gravação guardada e também a segurança de que os dados não serão usados para treinar algoritmos.
"Muita gente usa a versão gratuita dessas IAs. Depois isso pode ser usado (pelas plataformas) para treinar a própria IA."
O engenheiro diz que a plataforma não foi criada para substituir os profissionais.
"Ela é uma ferramenta para potencializar o tratamento, dar dicas, resumir o que foi falado e deixar tudo organizado dentro do prontuário daquele paciente. Mas não substitui terapeuta. A IA é muito amiga, não questiona se alguém está errado. Além disso, a IA só pega o que foi falado, mas não as expressões humanas, do rosto, do corpo. "
'Profissionais devem assumir responsabilidade', diz conselho de psicologia
Carolina Roseiro, conselheira do Conselho Federal de Psicologia (CFP), diz que as discussões sobre IA começaram há três anos, mas que o ritmo das mudanças obrigou o conselho a produzir orientações "com elasticidade".
Ela diz que o cenário atual já deixou claro que "a IA não é tão inteligente assim", tem limitações técnicas e éticas e não é neutra, pois "depende de uma programação, que vai reproduzir discriminações".
Ela afirma que a orientação central do CFP é que cada profissional assuma integralmente a responsabilidade pelo uso dessas ferramentas.
"Qualquer resposta que essa tecnologia der é responsabilidade da pessoa que deu o comando."
Roseiro explica que a mediação humana é indispensável porque a IA não estabelece sozinha limites éticos nem compreende contexto clínico.
A conselheira reforça que o uso de IA para fins de saúde mental pelo público em geral não é recomendado, a não ser em ferramentas criadas especificamente para isso e com um responsável técnico.
O CFP está preparando duas cartilhas sobre o tema, que serão lançadas em breve. Uma será voltada aos profissionais e outra, para a população em geral.
Outro ponto que ela considera fundamental é o consentimento do paciente, por escrito, que não deve se limitar à autorização para gravar de sessões, mas também a qualquer uso da IA em qualquer etapa do atendimento.
Carolina alerta ainda que, se a ferramenta não garantir sigilo, o psicólogo pode ser responsabilizado por quebra de confidencialidade.