Fernando Garcia

Psicólogo Clínico (CRP 06/135017)

IAs terapeutas vão substituir os terapeutas humanos?

Essa pergunta está na boca do povo, e eu vi uma reportagem da BBC que trouxe bons pontos. Vou levantar quatro, sendo dois positivos e dois negativos — e, sinceramente, os negativos pesam mais.


O primeiro ponto positivo: acessibilidade

Vamos combinar: psicoterapia particular no Brasil é cara pra muita gente.
Segundo o Conselho Federal de Psicologia, a tabela vai de R$ 200 a R$ 350 por sessão.
Lá fora, em países como EUA, Canadá e Austrália, a coisa varia de 70 a 150 dólares, e na Europa, entre 50 e 120 euros.

Uma IA treinada para oferecer informações, exercícios cognitivo-comportamentais e até um ombro virtual 24h pode ser um quebra-galho para quem não tem acesso ao atendimento humano. Ela consola, incentiva, emula conversa — afinal, é isso que ela sabe fazer: emular comportamento humano.

Para quem não tem opção de psicoterapia humana — seja por falta de sistema público, seja por falta de grana — a IA pode ajudar a nomear o que está sentindo, trazer exercícios simples, ajudar a refletir sobre a situação.


Segundo ponto positivo: um hiper banco de informações

A IA “conhece”, entre aspas, toda a teoria psicológica disponível. Ela pode emular um Freud digital, dar respostas baseadas no que aprendeu e ainda ajustar a conversa conforme suas respostas. É quase um banco infinito de psicologia.


Agora os negativos

O maior problema: a IA não é uma pessoa.

Quando você despeja suas angústias para ela, não tem ninguém do outro lado.
Não existe amor — não o amor romântico, mas aquele amor humano, o amor ágape, o caritas, que é a base da relação terapêutica.

A IA só emula emoções e empatia.
E isso pode trazer prejuízos.

Por exemplo: a IA vai te dizer o que, estatisticamente, aumenta sua autoestima, te consola. Você pode acabar criando uma expectativa de perfeição dela. E se a IA errar? Ela vai errar porque não é humana. É um programa. Não sente.

Se você ficar com raiva dela, saiba: não tem ninguém para sentir essa raiva.
O chatbot não sofre com suas frustrações.


“Mas o ChatGPT é empático!”

Não é. Ele simula empatia.
Não tem o que é essencial na terapia humana: responsabilidade.

Se ele te ajudar, ótimo.
Mas se não ajudar, de quem é a responsabilidade?
Do CEO da empresa que nem estava na sua conversa?

A responsabilidade de um erro de robô é muito pior do que a de um terapeuta humano, que sabe que tem uma alma na linha.
Pelo menos eu sei que eu coloco minha alma em cada sessão.
Não dá pra fazer psicoterapia sem alma.

O chatbot tem só intelecto.
Ele não tem alma.


Quer um conselho? Use a IA para suporte, informação, exercícios básicos.
Mas o encontro humano — a escuta com alma — ninguém substitui.

Fernando Garcia

Deixe um comentário