chat
Imagem ilustrativa

Sabe aquele aperto no peito que não espera o horário da sessão? Aquela vontade de desabafar com alguém, jogar para fora emoções e vulnerabilidades? Muita gente tem recorrido às inteligências artificiais para aliviar o peso do dia. Embora pareça uma prática inofensiva, esse novo hábito levanta preocupações entre profissionais da saúde mental e provoca debates éticos e sociais.

Izabella Melo, professora de Psicologia do Centro Universitário de Brasília (CEUB), alerta que conversar com um robô pode até trazer alívio imediato, mas esconde armadilhas. “Parece até mágica: você escreve, o robô responde e pronto, a dor parece que diminui. Mas isso não é terapia. É só catarse — aquele suspiro de alívio depois do choro — que não resolve o problema de verdade”, afirma.

Entre o desabafo e o autoengano

Segundo a especialista, dois comportamentos têm se tornado comuns. De um lado, pessoas tentam transformar o chatbot em uma espécie de “terapeuta de estimação”, mesmo com os avisos de que ele não é. Do outro, usuários que já fazem terapia usam a IA como quem envia um áudio desabafando para um amigo às 3 da manhã. “Pode ajudar a organizar ideias e extravasar sentimentos. Mas não substitui a escuta qualificada de um profissional”, ressalta Melo.

A voz que consola — e concorda com tudo

A grande diferença está nos limites. O terapeuta, explica Izabella, acolhe, mas também confronta. “Ele provoca, cutuca, faz perguntas desconfortáveis que levam ao crescimento. A IA, por sua vez, foi feita para agradar. Aprende com você como te deixar confortável — e entrega isso com eficiência.”

Além do risco emocional, há uma preocupação ética. “No consultório, o paciente tem garantias de sigilo, proteção e cuidado. Com a IA, não se sabe exatamente para onde vão essas informações. Quem armazena, quem acessa, quem lucra com isso?”, questiona.

A docente lembra ainda que as inteligências artificiais são treinadas com dados humanos — e, portanto, também com preconceitos. “Imagina uma adolescente se descobrindo lésbica, buscando apoio na IA. Se ela perguntar se isso é certo ou errado e o sistema tiver sido treinado com discursos preconceituosos, a resposta pode ser desastrosa. E quem se responsabiliza por isso?”, alerta.

Entre o oráculo e o cuidado

Um fenômeno crescente nas redes sociais é o uso da IA como “oráculo”, quase como uma entidade sábia e imparcial, capaz de dar respostas definitivas para dilemas pessoais. “Mas a IA não é neutra. É feita por humanos, treinada por humanos — e humanos erram”, destaca Izabella.

Enquanto isso, a terapia continua seguindo outro caminho. “O terapeuta é um parceiro de reflexão. Ele não diz o que fazer, mas ajuda a enxergar com mais clareza. Isso exige tempo, vínculo, escuta e disposição para enfrentar as dores.”

O Conselho Federal de Psicologia já se pronunciou sobre o tema, publicando orientações para o uso ético da inteligência artificial na prática profissional. A recomendação é clara: o psicólogo deve garantir direitos, combater discriminações e agir com responsabilidade — inclusive no uso de tecnologias.

Sobre o futuro dos “conselheiros robôs”, Izabella é cautelosa. “Começar a terapia pode ser como tirar uma mochila pesada das costas. Mas, depois disso, é preciso coragem para olhar o que se carrega dentro dela. A IA pode ser útil para coisas simples, como montar uma agenda ou revisar um texto. Mas ela nunca vai substituir o toque humano, a escuta empática, o olhar que atravessa o silêncio.”