Essa pergunta está na boca do povo, e eu vi uma reportagem da BBC que trouxe bons pontos. Vou levantar quatro, sendo dois positivos e dois negativos — e, sinceramente, os negativos pesam mais.
O primeiro ponto positivo: acessibilidade
Vamos combinar: psicoterapia particular no Brasil é cara pra muita gente.
Segundo o Conselho Federal de Psicologia, a tabela vai de R$ 200 a R$ 350 por sessão.
Lá fora, em países como EUA, Canadá e Austrália, a coisa varia de 70 a 150 dólares, e na Europa, entre 50 e 120 euros.
Uma IA treinada para oferecer informações, exercícios cognitivo-comportamentais e até um ombro virtual 24h pode ser um quebra-galho para quem não tem acesso ao atendimento humano. Ela consola, incentiva, emula conversa — afinal, é isso que ela sabe fazer: emular comportamento humano.
Para quem não tem opção de psicoterapia humana — seja por falta de sistema público, seja por falta de grana — a IA pode ajudar a nomear o que está sentindo, trazer exercícios simples, ajudar a refletir sobre a situação.
Segundo ponto positivo: um hiper banco de informações
A IA “conhece”, entre aspas, toda a teoria psicológica disponível. Ela pode emular um Freud digital, dar respostas baseadas no que aprendeu e ainda ajustar a conversa conforme suas respostas. É quase um banco infinito de psicologia.
Agora os negativos
O maior problema: a IA não é uma pessoa.
Quando você despeja suas angústias para ela, não tem ninguém do outro lado.
Não existe amor — não o amor romântico, mas aquele amor humano, o amor ágape, o caritas, que é a base da relação terapêutica.
A IA só emula emoções e empatia.
E isso pode trazer prejuízos.
Por exemplo: a IA vai te dizer o que, estatisticamente, aumenta sua autoestima, te consola. Você pode acabar criando uma expectativa de perfeição dela. E se a IA errar? Ela vai errar porque não é humana. É um programa. Não sente.
Se você ficar com raiva dela, saiba: não tem ninguém para sentir essa raiva.
O chatbot não sofre com suas frustrações.
“Mas o ChatGPT é empático!”
Não é. Ele simula empatia.
Não tem o que é essencial na terapia humana: responsabilidade.
Se ele te ajudar, ótimo.
Mas se não ajudar, de quem é a responsabilidade?
Do CEO da empresa que nem estava na sua conversa?
A responsabilidade de um erro de robô é muito pior do que a de um terapeuta humano, que sabe que tem uma alma na linha.
Pelo menos eu sei que eu coloco minha alma em cada sessão.
Não dá pra fazer psicoterapia sem alma.
O chatbot tem só intelecto.
Ele não tem alma.
Quer um conselho? Use a IA para suporte, informação, exercícios básicos.
Mas o encontro humano — a escuta com alma — ninguém substitui.
Fernando Garcia


Deixe um comentário