Brasileiros usam ChatGPT para fazer ‘terapia’; especialistas alertam para riscos

Medicina Notícias

Enfrentando crises de ansiedade desde a pré-adolescência, a estudante paulista Carolina Moura Lima, de 25 anos, encontrou recentemente um aliado pouco convencional: o ChatGPT, um chatbot alimentado por inteligência artificial de geração de texto. “Não sei como essa ideia veio, mas acho que foi em um momento de desespero. Pensei nele em uma crise, por falta de opção”, conta ela, que faz acompanhamento psiquiátrico e usa remédio controlado. Carolina também se consultava regularmente com uma psicóloga até agosto, quando precisou cessar as sessões por falta de dinheiro.

A estudante diz ter consciência de que o chatbot traz respostas prontas e, por vezes, extremamente genéricas – e aponta que um terapeuta humano será sempre sua principal escolha –, mas avalia que a tecnologia funciona em momentos de crise. “Quando ele me lembra de coisas básicas, como ‘faça algo que você gosta’ ou ‘escreva o que está sentindo’, isso ajuda. Porque, na hora da ansiedade, você não consegue raciocinar direito e lembrar delas.”

Carolina conta que, em geral, abre um chat e explica a situação que, na avaliação dela, causou a crise. “Pergunto se faz sentido eu me sentir assim. No fundo, sei que não faz. Mesmo assim, preciso de uma confirmação, de alguém que diga: ‘Tudo bem se sentir assim. Você tem toda razão.’ Ou que pelo menos entenda a minha dor. Mesmo sabendo que não é uma pessoa de verdade, ler isso me acalma.”

Ela está longe de ser a única a usar as opções de inteligência artificial – que se popularizaram de forma expressiva após o lançamento do ChatGPT no final de 2022 – na busca de suporte emocional. De acordo com o levantamento “A Inteligência Artificial na Vida Real”, da empresa de pesquisa de comportamento e mercado Talk Inc, que ouviu mil brasileiros, um a cada 10 indivíduos relatou usar ferramentas baseadas em IA como amigo/conselheiro para trocar e resolver questões pessoais e emocionais.

Especialistas ouvidos pela reportagem reforçam que a IA não é terapeuta e se mostram preocupados, em especial com o uso de modelos generativos, como o ChatGPT. Os principais receios são com a segurança do compartilhamento de informações pessoais e com os impactos de respostas imprevisíveis, às vezes até indevidas, que são dadas a uma pessoa vulnerável. Eles não condenam a IA e avaliam que, talvez, no futuro, ela possa ser uma importante aliada.

Brasileiros têm usado chatbots alimentados por inteligência artificial para fazer “terapia”, tendência que levanta preocupações entre especialistas em saúde mental.  Foto: Good Studio/Adobe Stock

O uso de chatbots na área de saúde mental, inclusive, não é exatamente uma novidade. O primeiro chatbot da história, o Eliza, criado em 1966 por Joseph Weizenbaum, no Massachusetts Institute of Technology (MIT), simulava justamente uma conversa com um psicoterapeuta. De lá para cá, novos modelos surgiram, com resultados promissores, mas insuficientes para sustentar uma indicação ampla de uso clínico.

O avanço nos estudos nessa área é visto com bons olhos, já que há quem considere que estamos diante de uma crise global de saúde mental somada a um cenário de subfinanciamento dos serviços de apoio a pacientes no mundo todo – de acordo com a Organização Mundial da Saúde (OMS), só 2% dos orçamentos públicos de saúde dos países são direcionados ao bem-estar mental. Mas os especialistas deixam claro: muito dificilmente profissionais como psicólogos e psiquiatras serão substituídos por máquinas, porém, podem tê-las como aliadas (leia mais abaixo).

Além das palavras

Em redes sociais como o X (ex-Twitter) e a plataforma de vídeos curtos TikTok, somam-se relatos de pessoas que dizem fazer “terapia” com o chatbot. Enquanto alguns adotam o tom de piada, outros definitivamente estão empenhados na tarefa, usando prompts (comandos para o ChatGPT) para especificar qual linha terapêutica ele deve seguir.

A psicóloga Talita Fabiano de Carvalho, conselheira presidenta do Conselho Regional de Psicologia de São Paulo (CRP-SP), destaca que o terapeuta analisa muitas coisas além do que o paciente diz. Enquanto chatbot está programado para responder àquilo que o usuário escreve, o terapeuta olha no olho, e está interessado em coisas como as reações e o tom da voz do paciente. Nesse sentido, afirma que psicoterapia não se trata apenas de aplicar métodos e o conhecimento científico, mas envolve também interação humana. “Você traz uma situação que está vivenciando, e eu utilizo todo o conhecimento e as técnicas que tenho para te ajudar. Mas, além disso, também sou um ser humano te ouvindo”, diz.

(Com isso) Essa escuta passa por filtros como empatia, solidariedade, compaixão, e uma percepção que vai além das palavras. Quando você me diz algo como ‘estou sentindo isso’, eu compreendo não só as palavras, mas também o que está por trás delas, por meio desse filtro de sentimento e a percepção que tenho enquanto ser humano”, completa. Ou seja, não dá para chamar as consultas à máquina de terapia, afirma.

O mais provável nem sempre é o melhor

O psiquiatra Christian Kieling, professor do departamento de Psiquiatria da Faculdade de Medicina da Universidade Federal do Rio Grande do Sul (UFRGS), destaca ainda que é preciso entender exatamente como funcionam as inteligências artificiais generativas, que alimentam chatbots como o ChatGPT, da OpenAI, e o Gemini, do Google.

Conforme já explicou o Estadão, a palavra vira matemática dentro do ChatGPT. O texto é gerado através de uma análise probabilística de tudo que ele “leu” de fontes públicas, incluindo o que está na internet, até um determinado período de tempo — na versão mais recente, até outubro de 2023. Ou seja, ele responde a sua pergunta com aquilo que é mais provável. Por exemplo, se você escrever “o céu está”, ele calcula que “azul” tem maior probabilidade de ser a próxima palavra, dependendo do contexto. “Mas aquilo que é o mais provável nem sempre é o melhor para o paciente”, aponta Kieling.

Além disso, há um fenômeno comumente chamado de “alucinação”, no qual a IA gera uma resposta incorreta, imprecisa ou inventada sem base nos dados em que foi treinada. A narrativa pode até parecer plausível, mas não tem qualquer fundamento real. Por exemplo, quando o Gemini, chatbot do Google, foi lançado, uma das perguntas que confundia a tecnologia era “como fixar o queijo na pizza”. O chatbot sugeria que o usuário utilizasse cola na receita.

Nesse sentido, explica Kieling, a resposta pode ser um chavão do senso comum, que muito provavelmente não vai ajudar o paciente – inclusive, pode até prejudicá-lo.

Conselhos potencialmente danosos foram o motivo para a derrubada do chatbot Tessa, lançado pela Associação Nacional de Transtornos Alimentares (NEDA, na sigla em inglês), dos EUA, em 2022. Ela era um sistema baseado em regras — chamado também de IA clássica ou simbólica —, o tipo mais estudado em saúde mental por ora. Ele se baseia, em geral, em respostas pré-aprovadas por especialistas na área. Ou seja, a maior parte das respostas são previsíveis — bastante diferente de uma IA generativa. A Tessa, no caso, foi desenvolvido por várias universidades americanas.

De acordo com o jornal americano The New York Times, a ferramente foi anunciada como “um chatbot de bem-estar”, disponível 24 horas por dia, que ajudaria a desenvolver “resiliência e autoconsciência ao introduzir habilidades de enfrentamento quando for conveniente para você”. Em março de 2023, a NEDA chegou a demitir os funcionários de uma linha telefônica de ajuda que existia há mais de 20 anos.

Porém, ativistas e psicólogos receberam uma série de respostas inadequadas ao testarem o recurso com mais atenção, conforme relatou Sharon Maxwell, que advoga pelo direito ao tratamento, ao programa 60 Minutes, do canal americano CBS. Para ela, que já enfrentou um transtorno alimentar, a Tessa chegou a sugerir a redução da ingestão de calorias e o uso de ferramentas como o adipômetro para medir a composição corporal. “Para o público geral, isso poderia parecer um conselho normal, como ‘não coma tanto açúcar’ ou ‘coma alimentos integrais’, mas, para alguém com transtorno alimentar, isso poderia desencadear um espiral de comportamentos disfuncionais e ser muito prejudicial”, explicou no 60 Minutes.

A NEDA retirou o chatbot do ar em junho de 2023. Ao 60 Minutes, Ellen Fitzsimmons Kraft, psicóloga especializada em transtornos alimentares na Washington University School of Medicine, que ajudou a liderar a equipe que desenvolveu a Tessa, apontou que os problemas surgiram quando a empresa de tecnologia Cass, parceira do projeto, assumiu a programação. Ela acredita que, em algum momento, recursos de IA generativa foram incorporados à plataforma, o que explicaria o aparecimento de conteúdo prejudicial em um sistema fechado. A Cass tem se recusado a comentar o assunto.

Atraso no tratamento de verdade

Outro ponto de atenção, segundo os especialistas, reside na possibilidade de a IA generativa trazer alívios momentâneos, sem endereçar profundamente as questões necessárias. Com isso, o paciente pode retardar a busca de ajuda profissional e ter um agravamento do quadro. “É a intervenção humana que vai fazer diferença ao olhar para o problema de uma forma mais global e eficiente”, afirma Talita.

“O que produz sofrimento na sociedade, hoje, e sofrimento profundo, são as próprias relações sociais que temos. As desigualdades sociais e os preconceitos são os maiores produtores de sofrimento. E as tecnologias não são programadas para fazer esses atravessamentos”, acrescenta a psicóloga.

Segundo a profissional, ainda que a pessoa escreva o que está sentindo, o chatbot não sabe sua cor, seu gênero, onde vive e quais são suas vivências anteriores. “Essa complexidade que produz sofrimento profundo e forja a nossa subjetividade não é captada pelas tecnologias da informação e inteligência artificial”, defende.

A questão do acesso

Kieling e Talita dizem que é importante entender o que há por trás desse fenômeno que leva algumas pessoas a compartilhar angústias com uma máquina. “Acho que precisamos nos rever enquanto sociedade. Então, fiquem atentos às pessoas, escutem com outros sentidos, não só o ouvido. Olhem, sintam, troquem, dialoguem. Talvez o cerne da questão esteja nas nossa relações”, reflete a psicóloga.

Kieling, por outro lado, pondera que a busca pelos chatbots pode ocorrer porque a população não têm acesso a tratamentos de saúde mental. “Sabemos que, mesmo em países ricos, a maioria das pessoas que precisa de algum tipo de cuidado na área de saúde mental não tem acesso. Seja por questões relacionadas ao estigma (atrelado a esses cuidados), seja pela oferta limitada ou por questões econômicas.”

De acordo com a Organização Pan-Americana da Saúde (OPAS), da OMS, embora problemas de saúde mental sejam responsáveis por quase um terço de todos os anos vividos com uma incapacidade nas Américas, mais de 80% das pessoas com problemas graves, incluindo psicose, não recebem tratamento. Os especialistas reforçam que, no Brasil, o acesso à saúde, incluindo a mental, é um direito constitucional e um dever do Estado.

Segundo especialistas, a solução do problema passa por diversas medidas: desde o treinamento de mais profissionais de saúde mental e aumento do financiamento dos serviços que oferecem esses cuidados, até a promoção de saúde (ou seja, prevenção) e a oportunidade de diferentes modalidades de atendimento, como as opções digitais.

Nesse sentido, o tipo de IA mais estudado são os sistemas fechados, com respostas pré-programadas por especialistas, que remontam aos anos 1960, quando foi criado o primeiro chatbot da história, o Eliza, no MIT. Entre as suas funções, estava simular um terapeuta rogeriano, no qual o programa utilizava técnicas de reflexão para devolver ao usuário parte do que foi dito na forma de pergunta.

De lá para cá, muita coisa mudou e os chatbots baseados em regras em saúde mental ganharam mais estudos, com resultados promissores. Um exemplo é o Woebot, lançado em 2017, que reproduz princípios da terapia cognitivo-comportamental (TCC). Ele é vendido como um terapeuta automatizado “quando encontrar um de verdade pode parecer uma impossibilidade logística e financeira”, de acordo com o The New York Times.

“Já temos alguns ensaios clínicos (em seres humanos) avaliando ele. É um modelo que aparentemente tem uma certa segurança”, afirma Kieling. Um desses estudos, publicado na revista científica Journal of Medical Internet Research, em 2017, comparou 70 universitários que foram divididos em dois grupos. Um deles recebeu duas semanas de sessão com o Woebot e o outro, acesso a um e-book de saúde mental oferecido pelo governo americano. Ambos responderam a questionários médicos para avaliar o estado da saúde mental durante o período da pesquisa. De acordo com os pesquisadores, aqueles no grupo Woebot tiveram uma redução significativa em seus sintomas de depressão ao longo do estudo.

“Mas ainda carecemos de mais estudos nessa área”, alerta Kieling. Nesse momento, os especialistas ouvidos pelo Estadão acham pouco provável que essas ferramentas consigam substituir um terapeuta humano — e talvez nunca atinjam esse nível. Isso porque, hoje, quando falamos em tratamento, de um lado temos os chatbots baseados em regras, que são previsíveis e mais seguros, mas que podem se tornar chatos e prejudicar o engajamento; e, do outro lado, há as IAs generativas, que são mais criativas, porém imprevisíveis, expondo os pacientes a riscos.

Por ora, as ferramentas de IA feitas especificamente para saúde mental podem ser vistas como potenciais aliadas cujo uso deve ser supervisionado por um profissional da saúde mental, de acordo com especialistas. “Existem evidências de estudos conduzidos em diversas partes do mundo mostrando que a eficácia de uma intervenção digital para a saúde mental é maior quando há um componente humano envolvido”, fala Kieling.

Outros usos

Dar apoio ao tratamento está longe de ser a única oportunidade da IA dentro da saúde mental. No Brasil, por exemplo, ela vem sendo testada pelo grupo de Kieling como auxiliar na detecção precoce de depressão em crianças e adolescentes. O IDEABot, um chatbot que funciona por meio do aplicativo de troca de mensagens Whatsapp, é uma parceira da UFRGS e da Universidade Federal de Pelotas (UFPEL), dentro do estudo Identifying Depression Early in Adolescence (Identificando Depressão Precoce na Adolescência, em tradução livre — daí vem o IDEA).

O assistente virtual é programado para coletar informações sobre o estado de humor dos pacientes por meio de questionários médicos ao longo de duas semanas. Para responder às perguntas, os jovens precisam digitar, gravar áudios e/ou mandar emojis. Conforme publicado na revista científica Journal of Medical Internet Research, o IDEABot sugere questões como: “O que você fez hoje?”, “seu dia está indo de acordo com sua rotina habitual?” e “sem contar as gravações de áudio que você envia aqui [emoji de rosto sorridente com suor], com quem você conversa sobre coisas que acontecem na sua vida?” e “como é seu relacionamento com essa pessoa?”.

“O IDEABot aparece como uma ferramenta aceitável e potencialmente escalável para reunir informações momentâneas que podem melhorar nossa compreensão do desenvolvimento e das flutuações do humor”, concluem os pesquisadores.

Isso pode ajudar, de acordo com Kieling, a superar uma limitação clássica da psiquiatria: os vieses de memória do relato retrospectivo do paciente nos consultórios. “As visões estão focadas num determinado momento. A nossa vida, entretanto, é uma coleção de momentos. Não temos uma foto, temos um filme”, explica Kieling.

De acordo com ele, análises preliminares do uso da ferramenta, e ainda não publicadas, destacam exatamente a incongruência entre a coleta prospectiva (ao longo do tempo com o chatbot) e a retrospectiva. “Costumo dizer que a minha área da medicina, a psiquiatria, é a mais atrasada de todas as especialidades médicas, no sentido de que não temos exames complementares. Enxergamos o IDEAbot como uma espécie de exame complementar, que não vai substituir o cuidado do médico ou do psicólogo, mas que pode potencializá-lo: trazer mais informações para que esse profissional consiga oferecer o melhor para o paciente.”

Fonte: Externa

BRAIP ads_banner