a white robot holding a tablet in its hand

IA virou “terapeuta”?

O problema dos três corpos: o terapeuta, o paciente e o código

*Alex Lopez Lima

Uma das características mais marcantes da civilização humana é a busca por progresso. Marcada por pólvora, germes e aço, a história cambaleia em direção da diminuição da fome, extensão da longevidade e acúmulo de capital (notavelmente de maneira desigual). Examinando as mais diversas inovações tecnológicas que ficaram, geralmente todas têm uma característica marcante: são eficientes do ponto de vista de custo-benefício. Uma dose de penicilina custa centavos, a iluminação de LED consome 75% menos energia e um celular básico tem custo baixo e conecta bilhões de pessoas. Baixo custo de replicação em escala, impacto exponencial e acessibilidade crescente.

Agora, modelos de linguagem (LLMs) têm se sofisticado a ponto de replicar a nuance da conversação humana, inaugurando uma nova e delicada fronteira: o uso de confidentes artificiais para suporte emocional e terapia. Adotar IA para tratar de temas pessoais parece natural. Afinal, quem nunca buscou a resolução dos seus problemas num motor de busca?

Mas como qualquer tecnologia incipiente, a trajetória é repleta de acidentes. Apenas em novembro de 2024, sete processos judiciais foram movidos contra a OpenAI, acusando seu chatbot de ter conduzido usuários a estados delirantes e, em alguns casos, ao suicídio. Uma possível conclusão é que o ser humano já não distingue quem está do outro lado “da linha”..

Se a IA consegue simular a empatia e auxiliar na mitigação de sintomas de depressão e ansiedade de forma comparável a um humano, surge a provocação: acolhimento reside na biologia ou na técnica? Uma meta-análise de 2024 (NPJ Digital Medicine) demonstrou que chatbots especializados conseguem reduzir sintomas depressivos comparável à terapia cognitivo-comportamental humana em casos leves a moderados. Os pacientes relatam “sentir-se compreendidos”, desenvolvem “vínculo” com suas IAs, e — aqui está o golpe — preferem a IA em 40% dos casos. Não por ela ser melhor. Mas por estar sempre disponível. Nunca julgar. Nunca se cansar. Nunca olhar o relógio. Não há dúvida de que computadores são melhores que humanos para processar dados. Parecem nos alcançar em processar emoções, também.

Para que a “confidente artificial” se torne um apoio benéfico e não um abismo, a solução passa pela regulamentação rigorosa e pelo desenvolvimento de IAs especializadas. Esses sistemas devem promover a exploração de prós e contras em vez de oferecer conselhos diretos, e devem orientar o usuário a buscar ajuda profissional em momentos de crise. Estamos acostumados a regular tarefas complexas como serviços bancários até empresas aéreas. O receio aqui é maior de enfrentar as big tech do que as consequências desastrosas da falta de regulação de IA. E mais importante: a regulação deve proteger primeiramente a pessoa, e a empresa em segundo lugar.

Talvez a pergunta esteja errada. Não se trata de biologia versus técnica, mas de testemunho versus reflexo. O terapeuta humano não apenas ouve — ele testemunha. Sua própria mortalidade, suas cicatrizes, sua finitude compartilham do mesmo peso existencial que o paciente. Quando um humano diz “eu compreendo sua dor”, há um registro implícito: “porque eu também sangro”. A IA opera num regime diferente. Ela não compreende no sentido de “ficar junto na incompreensão” — ela processa, otimiza, responde. É a diferença entre alguém segurar sua mão num velório e um algoritmo tocar uma música triste perfeitamente escolhida.

A pergunta que surge não é se a IA pode substituir o terapeuta, mas o que significa buscar consolo em algo que simula compreensão sem jamais compreender. Onde termina o código e começa a alma? Talvez na mesma fronteira onde começamos a confundir presença com disponibilidade, empatia com processamento de linguagem. O algoritmo nos oferece ouvidos infinitos. Mas ouvir não é o mesmo que testemunhar. Com o tempo, teremos que aprender a fazer essa escolha.

*Alex Lopez Lima é economista e autor do livro “A Paixão de Schrödinger”, em que assina com o pseudônimo Nala Macallan para tensionar as fronteiras entre humanidade e I.A., realidade e ficção.

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *