A falsa terapia da inteligência artificial: por que usar IA como psicólogo pode colocar a saúde mental em risco
25 janeiro 2026 às 11h01

COMPARTILHAR
Com o avanço acelerado da inteligência artificial e sua presença cada vez mais constante no cotidiano, novas formas de interação têm surgido, inclusive no campo da saúde mental. Aplicativos, chats e plataformas baseadas em IA vêm sendo usados por muitas pessoas como espaço de desabafo, aconselhamento e até como uma suposta alternativa à psicoterapia. Mas até que ponto isso é seguro?
O tema foi debatido no podcast Duas no Divã, idealizado pela psicóloga e psicanalista Isabela Bianchi, ao lado da psicóloga Marina Clara. O programa propõe conversas leves e provocadoras sobre psicologia, psicanálise e dilemas contemporâneos. Em entrevista, Isabela explica por que o uso da inteligência artificial como “terapia” pode representar riscos reais à saúde mental e reforça: IA não faz terapia, em hipótese alguma.

Segundo Isabela, a decisão de abordar a relação entre inteligência artificial e saúde mental surgiu justamente pela repercussão crescente do tema nas redes sociais: “No Duas no Divã, a gente tenta sempre pegar temas que estão em alta. E a discussão sobre inteligência artificial está sempre em evidência”, explica.
Ela cita um caso que ganhou visibilidade na internet e acendeu um alerta importante: “Teve uma situação com uma influenciadora que entrou em um estado meio psicótico, de delírio. Não foi causado pela inteligência artificial, mas por hábitos de vida e uso de algumas substâncias. O problema é que a IA continuava induzindo essa perspectiva de grandeza, de que ela era uma ‘alma evoluída’, e ela chegou a postar prints das conversas em que a inteligência artificial endossava esses pensamentos.”
Esse tipo de funcionamento, segundo a psicóloga, evidencia um risco grave, especialmente quando a IA é usada sem critérios como substituta de um acompanhamento profissional.
“Existe uma grande discussão na internet sobre usar inteligência artificial como terapia, como se fosse um psicólogo. Muitas pessoas acabam recorrendo a isso porque a terapia não é barata e nem todo mundo consegue pagar sessões semanais. Mas é preciso deixar muito claro: inteligência artificial não faz terapia de forma nenhuma.”
Quando o uso da IA se torna perigoso
Para Isabela, o risco se intensifica quando pessoas em sofrimento psíquico mais grave recorrem à IA como espaço de validação emocional: “A inteligência artificial funciona reafirmando aquilo que a gente traz. Ela tende a ficar do nosso lado, como se tomasse as nossas dores. Em pacientes que estão em situações de delírio ou psicose, isso é extremamente perigoso, porque acaba endossando ideias de grandeza ou até delírios persecutórios.”
Além disso, ela explica que a própria natureza da psicoterapia envolve desconforto e enfrentamento, algo que a IA não é capaz de oferecer.
“A terapia não é só acolhimento. A gente entra em contato com coisas ruins nossas, com erros, com falhas. A inteligência artificial não tem manejo para isso. Ela não faz o paciente entrar em contato com essa ‘sujeira’ para que ele se perceba como um ser humano falho.”
Segundo a psicóloga, esse movimento é fundametal para o processo terapêutico: “A terapia está nesse lugar de equilibrar acolhimento e confronto, para que disso surjam aprendizados. Como a inteligência artificial faria esse movimento de forma ética, cuidadosa e sensível? Ela não faz.”
Isabela destaca que, do ponto de vista da psicanálise, há um elemento central que torna impossível a substituição do terapeuta por uma máquina: a relação humana: “O que dita a qualidade do processo terapêutico é a transferência, que é a relação entre paciente e terapeuta. E também existe a contratransferência, porque nós, terapeutas, também somos humanos e sentimos coisas.”
Essa troca, segundo ela, é o que sustenta a evolução do tratamento: “Não há como criar transferência com um robô, com uma máquina. Não existe relação. E se não há relação, não há processo terapêutico.”
Ela reforça que muitos fenômenos que emergem na clínica são inconscientes algo inexistente na inteligência artificial: “Muitas vezes é o meu inconsciente em contato com o consciente do paciente que faz a coisa acontecer. A inteligência artificial não tem inconsciente. Ela opera por protocolo, de forma superficial.”
A IA como fuga emocional e reafirmadora de falsas certezas
Outro ponto levantado por Isabela é o uso da inteligência artificial como uma forma de evitar o enfrentamento emocional que a terapia exige: “Com certeza, ela funciona como uma fuga. É uma fuga da relação com o outro. A gente vive um momento muito individualista, de autossuficiência, em que não queremos lidar com relações difíceis.”
Segundo ela, recorrer à IA é mais confortável do que se expor diante de outra pessoa.
É muito mais fácil jogar as coisas em uma inteligência artificial, que vai te confirmar, do que se colocar vulnerável diante de um ser humano. Mas muitas vezes é justamente essa vulnerabilidade que faz a gente crescer. A inteligência artificial reforça o tempo todo que você está certo. Mas como alguém evolui se nunca é convidado a refletir sobre os próprios erros?
Na prática clínica, Isabela afirma que já recebeu pacientes influenciados por conteúdos da internet e por conversas com IA: “É muito comum atender pessoas que chegam com autodiagnósticos. Elas vêm rotuladas por coisas que viram na internet, sem nenhuma avaliação profissional.O paciente briga com o namorado, joga a situação na IA e ela fica do lado dele. Esse é o funcionamento dela. Mas a terapia é justamente o espaço de autorresponsabilização.”
Ela ressalta que frases frequentemente usadas por inteligências artificiais podem reforçar posturas rígidas: “Essa ideia de ‘o mundo não está preparado para você’ não é o lugar da terapia. Às vezes, a terapia é perceber que você precisa mudar, que seu jeito está causando sofrimento.”
Para o futuro da psicologia, Isabela defende uma postura equilibrada diante da tecnologia: “Então, rejeitar eu não acho que seja o caminho. Eu não gosto dessas ideias que são extremas, por isso não me agrada a ideia de rejeição total. Quanto à regulação, eu acredito que sim. E não apenas para a nossa área, da saúde mental, mas também para a área médica e da saúde física. Muitas vezes, as pessoas inserem sintomas psíquicos, físicos ou situações da própria vida, e a inteligência artificial pode ser negligente, até porque ela não foi desenvolvida para lidar com esse tipo de demanda. Há casos em que pessoas com sintomas físicos ou alguma doença recorrem a esse tipo de ferramenta e recebem informações equivocadas. A gente sabe que a inteligência artificial pode errar, não só em temas ligados à psicologia, mas também em outros assuntos, como fatos históricos e referências em geral.”
Ela acredita que a responsabilidade dos profissionais vai além do consultório.
“As pessoas não são obrigadas a saber o que é terapia. Quem tem essa obrigação somos nós, profissionais. Então precisamos ocupar os espaços, falar sobre, orientar.”
Segundo ela, a inteligência artificial pode até ser usada como ferramenta auxiliar em tarefas organizacionais, mas jamais como substituta do cuidado psicológico: “Planejar rotina, exercícios de respiração, coisas metodológicas, tudo isso pode até passar pela IA. Mas isso não é terapia. Terapia é outra coisa.”
E conclui com um alerta direto:
Há riscos reais. Algumas pessoas pagam um preço muito alto, com a própria saúde mental, física e até com a integridade. Por isso, é nosso dever alertar, orientar e informar.
