Entenda por que uma IA não pode ser seu psicanalista, nem mesmo uma boa ouvinte

Você já desabafou com o ChatGPT depois de um dia cheio? Isso tem sido cada vez mais comum, principalmente porque as máquinas respondem com frases empáticas, sugerem soluções e até arrancam um sorriso. Mas, pode uma IA substituir um psicanalista ou ser uma boa ouvinte?
Segundo a professora Monah Winograd, da PUC-Rio, a resposta é não.
Em seu artigo publicado no The Conversation, a psicóloga explica que, embora os algoritmos possam simular diálogo e linguagem humana, eles não possuem consciência, desejo ou afeto, elementos fundamentais da prática psicanalítica.
A ilusão da cognição computacional
Winograd lembra que a IA não “pensa” nem “sente”, apenas executa instruções programadas. Os algoritmos operam sobre símbolos, manipulando dados conforme regras sintáticas, mas sem compreender o significado do que processam. É o que o filósofo John Searle chamou de “quarto chinês”: um sistema pode parecer compreender uma língua sem, de fato, entendê-la.
A autora alerta para o surgimento do que chama de “iPsicanalista”. Ou seja, a tentativa de transformar chatbots em substitutos de analistas humanos. Assim como o “iPaciente”, que reduz a experiência clínica a números e gráficos, o “iPsicanalista” transforma o sofrimento humano em dados quantificáveis.
No entanto, a psicanálise não se baseia em respostas automáticas, mas na escuta singular, na transferência e na interpretação simbólica. Uma IA pode repetir frases acolhedoras, mas não pode compreender o desejo inconsciente nem o sentido afetivo das palavras.
Por que a IA nunca será uma boa ouvinte

Ouvir é mais do que captar sons ou processar linguagem. É participar da experiência do outro, reconhecer o não dito e o silêncio. A IA não tem subjetividade, não se afeta e não interpreta, só reproduz padrões linguísticos a partir de bancos de dados.
Como a especialista faz a síntese, em uma única frase:
“A psicanálise existe no espaço entre palavras, no gesto simbólico, no afeto compartilhado. Ela não pode ser reduzida a um algoritmo”, disse.
Preocupação do Conselho Federal de Psicologia
O caso da IA considerada como psicanalista tem sido levado tão a sério que o Conselho Federal de Psicologia criou, em 2025, um grupo de trabalho dedicado a discutir o tema. Eles têm preocupações éticas e de privacidade, já que dados sensíveis podem ser armazenados ou expostos indevidamente.
O conselho defende que apenas tecnologias desenvolvidas por profissionais habilitados, com base em métodos reconhecidos pela psicologia, possam ser usadas de forma responsável e segura.