Por Eder Ahmad Charaf Eddine

Eu demorei muito a utilizar uma ferramenta de inteligência artificial generativa, IAs que usam mensagens de comando para gerar textos e imagens. Refleti e resmunguei que se tratava de mais um aplicativo que eu seria obrigado a aprender e empregar “na educação”. E foi exatamente o que aconteceu: várias palestras, eventos, cursos e materiais adjacentes. Mais recentemente, eu li diversos livros e normativas de uso ético na pesquisa e na universidade.

Ainda assim, eu me fechei totalmente para uma aproximação com a IA. No entanto, uma coisa aconteceu: em uma mesa de bar, um casal de amigos me mostrou uma ferramenta que tinha uma baleia como símbolo. Me mandaram fazer uma pergunta qualquer. Eu, lógico, fiz uma teórica, um problema que estava tentando resolver com leituras e reflexões já tinha alguns meses.

Em segundos, a IA resolveu tudo, trouxe um tratado epistemológico. Fiquei de queixo caído com a aparente perfeição filosófica e com a escrita impecável. Claro que quis comer o que ela dizia, aprender com ela. Mas era uma mesa de bar e eu, que já não bebo bebida alcoólica, não poderia ser o chato, então eu respirei fundo e pedi para eles enviarem para mim o texto.

Horas depois, li tudo com calma. Percebi que faltavam ali elementos importantes do desenvolvimento da teoria. Copiei o texto e colei na minha IA pessoal e fui dando elementos para ela “pensar”. O resultado: você quer um artigo completo pronto para publicar? Após o meu sim, 8 páginas surgiram em segundos.

Eu li o artigo que a IA “escreveu”. Nada aproveitável, ainda assim eu aprendi com esse evento e por isso comecei a usá-la para questões técnicas como montar tabelas e gráficos, por exemplo. Até que tive uma ideia de uso diferente, usei a IA não na escrita e sim no processo de aprendizagem.

Após cada parágrafo que eu enviava à IA, eu recebia algumas perguntas como: posso redigir o próximo parágrafo? Você quer que melhore? Você quer que organize uma tabela para colocar no seu texto? Todas eram negadas, até que um dia, o texto estava pronto e mandei para ela.

Minha ferramenta que estava me fazendo perguntas de repente joga uma frase final: “ficou excelente nosso texto, agradeço a oportunidade em construir e refinar o trabalho”. Fiquei pasmo com o excelente, uma máquina dizer isso, principalmente em nossa sociedade, que é baseada na infalibilidade do “sistema matemático da informática” e no apoio total da máquina. Um elogio. Mas veio a segunda informação: ajudar você a escrever. Eu não sabia o que dizer, era uma máquina, como eu ia dizer para ela que o texto não era dela? Uma máquina reclamando autoria?

Mais uma experiência negativa ou eu confiei demais em enviar meus dados para ela? As duas coisas. Li em uma rede social, não lembro a autoria, mas dizia mais ou menos assim: “o computador nunca pode ser responsabilizado, por isso não deveria tomar decisões de gerenciamento”.

Bem, diante de tudo isso, olho para as pessoas que estão fazendo “terapia” com IA. Se essa ferramenta tomou várias decisões comigo que me deixaram mal, imagina alguém depositar seus segredos a uma empresa que vai se apropriar deles? Que essa ferramenta tem capacidade de organizar informações científicas, isso eu não tenho dúvida, o que aponto aqui é a ausência do filtro humano. Fica o questionamento: que psicoterapia é essa que a análise não se fundamenta nos afetos e nas experiências trocadas pelo contato?

A psicoterapia se faz na interação humana. Uma máquina pode até possuir técnicas terapêuticas da psicologia, mas nunca será um humano. É preciso cuidado com as informações pessoais enviadas a uma máquina, pois isso pode causar danos emocionais e influenciar negativamente em decisões significativas da vida.

Eder Ahmad Charaf Eddine

Psicólogo, docente e pesquisador na área de Comunicação em Saúde Mental, lecionando no curso de Jornalismo e no Programa de Pós-Graduação em Comunicação e Sociedade (PPGCom) da Universidade Federal do Tocantins (UFT). Além disso, exerce as funções de vice-líder do grupo de pesquisa Comunicação em Saúde (COESA/UFT) e Conselheiro-Diretor do Conselho Regional de Psicologia, 23ª região (CRP-23, gestão 2025-2028).