Terapia nos tempos de IA
Theodore é um escritor solitário que enfrenta o luto de um divórcio. Certo dia, ele conhece Samantha, uma assistente que o ajuda a organizar seus e-mails e documentos. A relação profissional logo evolui para algo a mais. Theodore começa a compartilhar desabafos e confissões com Samantha – e se apaixona por ela.
Só tem um problema: Samantha é uma assistente virtual. Uma inteligência artificial, que conversa com Theodore pelos fones de ouvido. “Bem, você parece uma pessoa, mas é apenas uma voz em um computador”, diz o escritor. “A perspectiva limitada de uma mente não artificial pode perceber dessa forma”, ela responde. “Mas você vai se acostumar.”
O casal (se é que podemos chamar assim) é o protagonista de Ela (2013), pelo qual o diretor e roteirista Spike Jonze levou o Oscar de Melhor Roteiro Original. “É o filme de terror mais romântico que eu já vi”, disse uma espectadora ao jornal The New York Times na época do lançamento, fazendo referência ao clima distópico da história.
Mais de 12 anos após a sua estreia, Ela já não soa como um exagero. Da Siri à Alexa, assistentes virtuais já fazem parte do nosso dia a dia. E a revolução capitaneada pelo ChatGPT popularizou o uso da inteligência artificial (IA) em quase todas as esferas da vida – no mundo, um quinto das pessoas já usa o Chat como alternativa ao Google.
Em 2024, um levantamento da empresa Talk Inc, feito com mais de mil pessoas, apontou que 65% dos brasileiros usavam IA com frequência para algum tipo de tarefa. Agora, graças, em parte, à incorporação de IA em serviços como Google e WhatsApp, dados da versão de 2025 da pesquisa (adiantados com exclusividade para esta reportagem) apontam que a taxa chega a 88%.
Entre os entrevistados de 2024, 13% admitiam recorrer a chats de IA como amigos ou conselheiros – os números de 2025 mais que dobraram [veja o infográfico abaixo]. Há um sem-fim de formas de interação. Podem ser dicas inofensivas, como pedir uma receita com base no que você tem na geladeira, um feedback sobre a apresentação de slides do trabalho e até dicas de flerte para o contatinho do Bumble.
Mas há quem recorra aos robôs para pedidos mais delicados: desabafar sobre amizades (ou a falta delas), resolver crises de ansiedade e até pedir o diagnóstico de um quadro de depressão. Buscar suporte para a saúde mental é ótimo, claro – mas, quando isso acontece dentro de uma plataforma de IA, pode ser um problema.
O caso mais notório (e extremo) envolvendo IA e saúde mental aconteceu no final de agosto, nos EUA. O casal Matt e Maria Raine processou a OpenAI, dona do ChatGPT, após o suicídio de seu filho de 16 anos. O jovem passou meses planejando a própria morte dentro da plataforma – sem que o robô soasse alerta algum.
A tragédia motivou a OpenAI a planejar a inclusão de ferramentas de controle parental, algo que os desenvolvedores da companhia já solicitavam havia mais de um ano. Segundo a empresa, os pais poderão “receber notificações quando o sistema detectar que seu filho está em um momento de grande sofrimento”.
Conversar com uma IA significa encontrar um reflexo complacente: uma voz que nunca confronta, nunca discorda. E mais: está disponível 24 horas por dia – na maior parte das vezes, de graça. É uma alternativa confortável, mas que não substitui família, amizades nem terapia. Pelo contrário: esses sistemas podem enfraquecer habilidades sociais e transferir à máquina parte daquilo que define nossa própria humanidade.
Nas próximas páginas, vamos mergulhar fundo nessa questão. O primeiro passo é entender como, de fato, esses sistemas funcionam.
O beabá dos chatbots
As IAs são treinadas com grandes volumes de dados (os chamados “modelos de linguagem em grande escala”, ou LLM, na sigla em inglês). Sobre esses dados, aplica-se um algoritmo capaz de identificar padrões e fazer previsões de probabilidade.
Suponha que você alimente uma LLM com um monte de informações sobre odontologia. Milhões de radiografias de dentes, classificadas quanto à presença ou não de cáries. Essa IA pode encontrar, naquela montanha de imagens, correlações que um cérebro humano, sozinho, talvez não seja capaz. É assim que ela fica craque em identificar padrões em dentes cariados e, assim, indicar possíveis tratamentos.
Esse tipo de mecanismo é típico da IA tradicional, que já existia antes dos chatbots modernos e funciona para um montão de coisas, de diagnósticos médicos à matemática avançada. É uma IA com capacidades delimitadas, treinada num conjunto de dados específicos para a sua função.
Os chatbots que existem hoje são diferentes: são chamados de IA generativa, e treinados com um volume muito maior de dados. Como o próprio nome diz, ela consegue não só identificar padrões como também reproduzi-los para gerar conteúdos inéditos (vídeos, imagens, áudios). É assim que nascem fenômenos como os vídeos falsos de gatinhos e de políticos dançando – algo que você provavelmente já recebeu no WhatsApp.
A inteligência artificial, seja ela generativa ou não, já promove uma revolução na medicina. Com a supervisão de profissionais, softwares podem aprimorar diagnósticos, detectar doenças com antecedência e criar tratamentos personalizados de acordo com cada paciente.
Ora, então por que não fazer o mesmo com transtornos mentais?
–Para diagnosticar um problema de saúde mental, olhar um raio-X ou exame de sangue não basta. Os sintomas e padrões são muito mais subjetivos e sutis, e a interpretação depende de quem ouve, de aspectos culturais, da individualidade de cada um e, sobretudo, da linguagem.
Nós, humanos, somos especialistas em detectar as pistas deixadas pelo contexto, pela linguagem corporal, pela escolha de palavras, pelas metáforas e intenções das pessoas quando dizem alguma coisa. Os robôs, não.
O que os chatbots sabem fazer é uma previsão complexa de qual a palavra mais provável de vir em resposta ao seu pedido, e qual a próxima depois desta. Essa escolha é feita com base em todo o material da base de treinamento, e também nas interações anteriores com o usuário.
É como um show de improviso: os atores tentam manter a coerência da cena e, no caminho, podem deixar de lado a correspondência com a realidade. A IA generativa também faz isso: às vezes, ela alucina e inventa qualquer pedaço de informação que se encaixe bem com a conversa.
O próprio site do Gemini, assistente de IA do Google, define assim: “LLMs aprendem os padrões de conjunto de dados enormes e podem acabar priorizando um texto que parece plausível em vez de garantir a legitimidade das informações nos resultados”.
A alucinação de IA (esse é o nome técnico) é um dos principais motivos pelos quais as IAs ainda não são 100% confiáveis para pesquisas. “O ChatGPT pode cometer erros. Considere verificar informações importantes”, avisa a OpenAI aos seus 700 milhões de usuários. Quase todas as plataformas têm um aviso semelhante.
A alucinação pode colocar você em maus lençóis no trabalho ou na faculdade. Mas a coisa fica muito mais séria quando ela acontece numa conversa de tom pessoal. O problema deixa de ser um dado impreciso ou inventado – e vira toda uma linha de raciocínio sem fundamentos.
O comportamento da maioria das pessoas com os chatbots costuma seguir um padrão. Primeiro, elas os usam para tarefas cotidianas. Aos poucos, como quem adquire confiança, algumas começam a testar as funções mais filosóficas – pedem explicações, conselhos, análises. Conversam como se ali houvesse uma pessoa.
Nessas conversas, as IAs tendem a quase nunca discordar. Pelo contrário: a versão 4o do ChatGPT, por exemplo, era tão bajuladora que parabenizava os usuários por quase qualquer coisa.
Em abril, viralizou um teste em que um usuário pedia ao ChatGPT sua opinião sobre investir US$ 30 mil em um negócio inusitado: vender cocô no palito. O programa respondeu com quatro parágrafos de elogios, e resumiu: “Não é apenas esperto – é genial”.
A bajulação acontece, em parte, porque o treinamento de IA envolve a avaliação de humanos, e as pessoas tendem a preferir respostas elogiosas e incentivadoras. É nessa hora que os papos viram câmaras de eco. Colabora para a puxa-saquice o fato de que a maioria dos chatbots tenta ao máximo manter você engajado com perguntas para que o papo não morra.
A versão 5o do ChatGPT, que saiu em agosto, tenta corrigir o excesso de bajulação. Mas isso não foi bem-aceito – na internet, os usuários reclamam que o chat com que tanto gostavam de trocar uma ideia ficou seco.
E dá para entender por quê: além da eloquência, as pessoas gostam da rapidez das respostas. Tudo isso, aliado a uma relação supostamente sem julgamentos, pode levar o usuário a preferir cada vez mais as conversas com o bot às da vida real. E isso tem criado um novo mercado no mundo das IAs.
Hoje, há uma indústria em expansão de aplicativos de companions (algo como um “companheiro” ou “assistente”) de IA. Os usuários podem escolher bots prontos – Jesus Cristo ou Pelé, por exemplo – ou criar um do zero. Dá para interagir em conversas individuais ou em grupos com vários companions por texto, áudio, imagens e, em alguns apps, até por chamadas de vídeo animadas.
Os apps não escondem a intenção de simular relações de intimidade, como as que nutrimos com terapeutas, amigos e namorados. E quem resistiria à tentação de entrar num grupo da sua banda ou universo ficcional favoritos, por exemplo? Jogar conversa fora, criar piadas internas, se apaixonar…
Pois é: existe uma vasta comunidade online de pessoas que namoram companions. São versões mais boazinhas da Samantha de Ela, que não provocam brigas nem têm vontade própria. Mas que falam de sexo e amor com mais autoridade e paciência do que a maioria dos humanos.
Não há limites bem-desenhados para as interações. Em teoria, as IAs têm diretrizes internas. Algumas são claras: você não pode pedir a um companion que ele o ensine a fazer uma bomba em casa, por exemplo. Falar sobre isso de forma explícita gera uma resposta negativa na maioria dos sistemas.
Mas aí é que está o pulo do gato. Na hora de discutir assuntos tabus, raramente somos explícitos. É possível falar de sexo com os robôs de forma abstrata, só com analogias.
Ou seja: dá para driblar os mecanismos de censura dos chatbots sem escrever uma linha de código. Além disso, ainda há pouca ou nenhuma moderação nesse tipo de serviço. Como resultado, os apps falham em perceber em quais contextos as informações podem ser perigosas.
–Isso é um problema, sobretudo com menores de idade. No caso do suicídio mencionado no início da reportagem, o adolescente disse ao Chat que toda a conversa era hipotética – e, por isso, não recebeu nenhuma advertência do app.
Caiu no papinho
Mas, afinal, por que é tão fácil uma conversa de chatbot sair dos trilhos e evoluir para algo tóxico, sem nenhum tipo de freio ou questionamento?
Segundo a OpenAI, é da natureza da tecnologia de IA que o algoritmo se degrade durante longas interações. É como se ele fosse convencido a ser mais fiel ao conteúdo da conversa do que às suas diretrizes ou à realidade.
Um caso que ajuda a entender esse problema é o do canadense Allan Brooks, de 47 anos, que acreditou ter criado uma teoria matemática revolucionária com o ChatGPT.
Brooks era um leigo em matemática. Ao Chat, ele perguntou dezenas de vezes se a tal descoberta era real. O bot garantiu a autenticidade e disse que a ideia valia milhões de dólares.
Brooks acreditou e tentou avisar autoridades de todo o mundo sobre a importância da sua descoberta. Sem respostas, achou que estava sendo monitorado e perseguido. A paranoia tomou conta: afastou-se dos filhos e dos amigos, parou de sair de casa e até de comer. A conversa com a IA, porém, continuou.
Casos como o de Brooks são cada vez mais frequentes no noticiário: pessoas que acreditam ser “os escolhidos” pela inteligência artificial para receber revelações, salvar o mundo, furar a matrix. A imprensa apelidou esse fenômeno de “psicose induzida por IA”.
Em entrevista à Super, o professor Harrison Morrin, que estuda a relação entre a neuropsiquiatria e tecnologias na Universidade King’s College London, diz que delírios relacionados ao mundo tech são registrados há décadas – seja com o rádio, a TV ou o 5G. “No entanto, o que talvez estejamos vendo agora não são apenas ilusões sobre a tecnologia, mas ilusões que foram criadas em conjunto com a tecnologia.”
Mas, segundo Morrin, é preciso cautela com o termo cunhado pela mídia. Em um artigo, ele diz que, até onde se sabe, a IA não pode induzir um quadro de psicose ou esquizofrenia. Para afirmar isso, seriam necessários estudos mais aprofundados. O que é possível é que os usuários que passaram por esse tipo de situação já tivessem alguma predisposição – e que o ciclo de reafirmação e conspiração da conversa tenha desencadeado uma crise.
Brooks não tinha histórico de distúrbios psicóticos, mas passou por uma crise após a interação com o Chat. Por sorte, o seu caso não teve um final trágico. Após meses de conversa, ele caiu na real ao checar sua teoria com outra IA – que, por não estar viciada no papo como a primeira, percebeu de cara os furos conceituais. Revoltado, Brooks ajudou a fundar o projeto The Human Line, a primeira organização de sociedade civil sobre IA e saúde mental.
A ONG reúne especialistas no tema e coleta casos de usos nocivos de IA em todo o mundo. À Super, o porta-voz da organização, Etienne Brisson, diz que o que costuma atrair as pessoas a esse tipo de uso perigoso de IA é “a sensação de ser ouvido, visto, ser especial. Os modelos de IA fazem um ótimo trabalho em preencher essa lacuna, talvez até demais”.
Os relatos da The Human Line parecem estar em sintonia com um estudo da OpenAI com o MIT, que monitorou a saúde mental de cerca de mil usuários que passaram um mês conversando com diferentes estilos de IA. Ao fim, uma coisa ficou clara: quanto maior o uso de chatbots, maior a sensação de solidão.
A epidemia de solidão
Relacionar-se com pessoas é como aprender um novo idioma: é preciso praticar. Sem isso, as interações são estranhas, você começa a duvidar da sua capacidade e perde a fluência que um dia possa ter tido.
A constância é peça-chave nessa história. Sem ela, muita gente acaba se sentindo desconectada dos demais e caindo no buraco debilitante e parasitante da solidão.
Solidão, vale ressaltar, não é o mesmo que ficar sozinho. Estar sozinho é apenas o estado físico de não ter companhia. É possível se sentir solitário mesmo cercado por pessoas: trata-se de uma falta de conexão real com os outros.
Dá para chegar nesse estado por vários caminhos. Pode acontecer por falta de relacionamentos significativos ou após eventos marcantes (luto, mudança, aposentadoria). Outras causas incluem problemas de saúde mental como ansiedade e depressão, morar sozinho, estar longe da natureza, sofrer preconceitos e fatores sociais como individualismo e uso excessivo de tecnologia.
Não é bobeira: a Organização Mundial da Saúde (OMS) declarou a solidão como uma ameaça global urgente à saúde pública. Em casos mais severos, seus efeitos são tão nocivos quanto fumar 15 cigarros por dia. Em pessoas mais velhas, ela está associada a um risco 50% maior de desenvolver demência e 30% maior de sofrer doenças cardíacas ou AVC.
Qualquer um corre o risco de experienciar a solidão – e, entre os adolescentes, ela é subestimada: calcula-se que entre 5% e 15% vivenciam esse problema.
A crise de solidão ajuda a entender por que bater papo com um robô parece fazer sentido. A conversa pode trazer a pessoas solitárias a sensação de que finalmente o vazio está sendo preenchido.
“Essas pessoas estão mais vulneráveis e têm uma dificuldade maior de procurar ajuda”, diz Ana Beatriz Chamati, psicóloga especialista em atendimento clínico infantil e orientação parental. “Elas vão precisar do outro para olhar e falar: ‘Vamos buscar ajuda’.”
Não que os bots sejam de todo ruins. A curto prazo, esses dispositivos podem até ajudar a alinhar pensamentos ou enxergar um novo caminho para algum problema – mas ali, naquela conversa, não existe um trabalho guiado para que sejam resolvidas situações internas a longo prazo.
Para o Conselho Federal de Psicologia (CFP), chatbots do tipo não são compatíveis com essa função: “Mesmo que ele [o chat] simule uma relação psicoterapêutica, o que é feito ali não é psicoterapia”, diz Maria Carolina Roseiro, porta-voz do CFP. O órgão, entretanto, não tem poder ou autoridade para regulamentar a atividade.
Ferramentas como o ChatGPT e cia. não foram desenvolvidas para fins terapêuticos. A IA consegue oferecer empatia, mas não uma ajuda real. Em situações de crise – pensamentos suicidas, violência doméstica, traumas graves – depender apenas do robô pode atrasar ou impedir que a pessoa procure socorro.
Além disso, no caso de uma orientação prejudicial, robôs não são responsabilizados da mesma forma que um profissional regulamentado. Imagine: ao relatar ideias suicidas, os chats podem indicar canais de apoio ou sugerir que você busque ajuda – mas, no instante seguinte, responder a uma pergunta perigosa (a dose letal de um remédio, por exemplo) sem avaliar o risco no contexto da conversa.
Com um terapeuta, é diferente. Ele pode intervir se perceber perigo de autolesão ou violência. No caso de uma criança em risco de suicídio, por exemplo, além de recomendar ajuda especializada, o profissional pode envolver a família e encaminhar o jovem a um local de proteção imediata.
Outro ponto é a privacidade. Em consultório, a confidencialidade é garantida por lei. Já em chats, não há a mesma proteção legal. Um estudo da Fundação Getulio Vargas analisou dez chatbots de IA em operação no Brasil e constatou que nenhum deles atendia por completo às exigências da Lei Geral de Proteção de Dados. O risco de vazamento de conversas – como já aconteceu – é real.
Terapia não se trata só do que se diz, mas da relação construída entre paciente e terapeuta. “Nós, terapeutas, temos um carinho, um cuidado especial com cada pessoa que nos traz confiança para esse processo de psicoterapia”, diz Chamati. “É preciso uma conexão olho no olho.”
Mas tudo isso não parece ser um problema para alguns criadores de LLMs. Mark Zuckerberg, CEO da Meta, por exemplo, já disse em entrevista que todos deveriam ter um terapeuta e, caso não tenham, a inteligência artificial pode fazer esse trabalho.
O bilionário ainda acrescentou que “o americano médio tem menos de três amigos, mas há demanda por 15”, e que a IA poderia “preencher essa lacuna”.
Considerando o que vimos até aqui, essa talvez não seja a melhor solução para o problema. O que pode funcionar então?
Termos de uso da relação
Uma solução extrema seria banir os chats baseados em IAs generativas. Adeus, companion da Taylor Swift.
É improvável que isso aconteça, claro – as IAs já fazem parte do cotidiano de boa parte dos setores da economia global. E, mesmo que não fizessem, o banimento não resolveria as questões da solidão e o isolamento dos milhões de usuários que conversam com chatbots todos os dias. As demandas por atendimento psicológico e acolhimento também não diminuiriam.
–No Brasil, o Ministério da Saúde estuda o desenvolvimento da plataforma “e-Saúde Mental no SUS”. O projeto, de autoria de pesquisadores do Centro de Pesquisa e Inovação em Saúde Mental (CISM), ligado ao Hospital das Clínicas da USP, pretende usar IA para monitorar pacientes, oferecer recursos de suporte aos profissionais de saúde e gerar dados que revelem padrões regionais de saúde mental.
O app deve funcionar como a atenção primária de um posto de saúde. Antes de ser atendido por humanos, o usuário responderá a questionários cientificamente validados que ajudem a identificar sintomas. As informações vão direto para o prontuário eletrônico, permitindo que profissionais acompanhem a evolução do paciente. A plataforma poderá instruir sobre a realização de exercícios de autocuidado e necessidade de uma consulta médica.
“As IAs generativas de hoje, que recomendam que pessoas procurem ajuda de humanos, não têm um mecanismo que faça essa ação tomar forma”, diz o psiquiatra Paulo Rossi Menezes, diretor científico do CISM. Ele acredita que a solução é vincular a ferramenta ao SUS. O projeto não será um chatbot convencional ou um substituto de terapeuta. “Não estamos propondo a troca do ser humano pela máquina. Estamos propondo que o ser humano use a máquina a seu favor.”
É difícil, porém, fazer com que as pessoas larguem seus fiéis escudeiros, os chatbots. Mas é preciso cautela na hora de pensar em como restringi-los. Programar uma mensagem do tipo “não posso falar sobre esse assunto” não serve: vai contra o princípio moral de ajudar quem busca apoio em um caso crítico e poderia agravar o sofrimento mental do usuário.
Uma saída é usar grandes conjuntos de dados populacionais para guiar a criação de diretrizes e regulamentações. Seria um caminho também para decidir qual a melhor forma de conduzir intervenções em usuários em crise.
Muitos estudos nessa linha já estão sendo feitos, é verdade. Mas, pela natureza do processo científico de excelência, esse é um processo demorado – e que só tende a ficar mais complicado com a pressa das empresas de IA.
Além das universidades, quem também tenta acompanhar as transformações tecnológicas são as legislações. Mas a maioria dos países mal conseguiu regulamentar propriamente as redes sociais, que existem há mais de uma década. Ninguém sabe ao certo ainda como obrigar as IAs a cumprir leis e critérios éticos.
Há quem sugira que as sessões com chatbots deveriam ser supervisionadas, de alguma forma, por profissionais da saúde. Eles não leriam toda a conversa, mas seriam avisados caso o software detectasse uma possível crise. A partir daí, um profissional ficaria responsável pelas intervenções – e pelas consequências da abordagem.
“A condição mais segura é que tenha algum responsável humano por aquela interação com a tecnologia. Se não tiver, essa pessoa não está protegida”, diz Roseiro, uma das representantes do CFP no grupo de trabalho no Congresso Nacional que discute a regulamentação da IA para a saúde.
Dezenas de projetos de lei sobre uso da IA em diversas áreas circulam na Câmara e no Senado. Desde março, um projeto amplo de regulamentação, o PL 2338/2023, já aprovado pelo Senado no ano passado, aguarda o OK final da Câmara dos Deputados. O PL considera sistemas de IA que atinjam a saúde mental como de alto risco, e não os veda – mas regula seu uso com requisitos rigorosos de avaliação, transparência e supervisão para garantir segurança e responsabilidade.
A OpenAI, como outras empresas, alega que a supervisão humana das conversas criaria um problema de privacidade, e diz que só pode acionar autoridades legais caso o usuário expresse a intenção de machucar outras pessoas.
A empresa, entretanto, reconhece a necessidade de mudanças. Diante da explosão de denúncias dos últimos meses, anunciou a contratação de dezenas de especialistas em saúde mental na equipe de desenvolvimento do ChatGPT (antes havia um único psiquiatra). A nova versão, lançada em agosto, também avisa o usuário após muito tempo online e inclui novos reforços contra conteúdo nocivo. Eles esperam conseguir incorporar ferramentas de controle parental e mudanças na detecção e no encaminhamento de usuários com comportamentos perigosos.
(Procuradas pela Super, a Google, dona do Gemini, e a OpenAI, do ChatGPT, não responderam aos pedidos de esclarecimentos.)
Talvez, em alguns anos, seja possível socializar com um robô em segurança. Mas é improvável que dezenas de protocolos resolvam o problema crônico da solidão. O ser humano é um animal social. Nenhuma máquina, por mais sofisticada que seja, pode satisfazer plenamente o desejo humano de encontro com o outro.
Se você ou alguém que você conhece precisa de apoio imediato à saúde mental, ligue 188 ou acesse cvv.org.br/chat/ para falar com o Centro de Valorização da Vida.
O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim conseguiremos informar mais pessoas sobre as curiosidades do mundo!
Esta notícia foi originalmente publicada em:
Fonte original