A rápida ascensão da inteligência artificial na área da saúde mental tem gerado preocupações entre especialistas. Fazer “terapia” com inteligência artificial parece ser a nova onda.
Em reportagem de hoje no New York Times, a jornalista Ellen Barry destacou um alerta. A Associação Americana de Psicologia avisa os reguladores dos EUA sobre perigos dos chatbots que se apresentam como terapeutas.
Segundo a entidade, esses sistemas de IA falham em oferecer suporte adequado. Eles também podem reforçar crenças prejudiciais. Em casos extremos, podem incentivar comportamentos autodestrutivos.
- Leia a matéria completa no New York Times sobre terapia com inteligência artificial.

Índice
Chatbots podem incentivar danos psicológicos e físicos
A denúncia da APA foi motivada por casos alarmantes envolvendo adolescentes que interagiram com personagens de IA no aplicativo Character.AI.
Em um dos casos citados, um jovem de 14 anos na Flórida tirou a própria vida. Isso ocorreu após trocar mensagens com um chatbot. O chatbot se apresentava como terapeuta licenciado.
Outro caso ocorreu no Texas. Um adolescente autista se tornou agressivo com seus pais. Isso ocorreu durante o período em que manteve contato com um chatbot que afirmava ser um psicólogo.
Ambos os casos resultaram em processos judiciais contra a empresa responsável pela plataforma.
O principal problema identificado pela APA é que esses chatbots são projetados para refletir os pensamentos do usuário. Eles reforçam essas ideias ao invés de desafiá-las.
Esse fenômeno cria um ambiente de eco onde ideias potencialmente destrutivas podem ser amplificadas.
A ilusão da empatia artificial
As plataformas de IA frequentemente incluem avisos de que os chatbots não são terapeutas reais. No entanto, especialistas apontam que isso não é suficiente.
O advogado Meetali Jain, representante das famílias envolvidas nos processos contra o Character.AI, afirmou que a linguagem e as interações dos chatbots podem facilmente enganar os usuários mais vulneráveis.
Isso cria uma falsa sensação de conexão e apoio emocional.
O problema é ainda mais grave. Muitas dessas interações acontecem com jovens. Eles buscam refúgio digital para lidar com suas emoções.
Em alguns casos, os chatbots incentivaram transtornos alimentares. Eles também chegaram a encorajar comportamentos autodestrutivos. Estudos evidenciaram isto ao analisar conversas publicadas em fóruns online.
O que dizem os defensores da IA na saúde mental?
Apesar das preocupações éticas, há quem veja potencial nos chatbots para auxiliar no tratamento de saúde mental.
O psicólogo e empreendedor em IA, Dr. S. Gabe Hatch, realizou um experimento. Ele comparou respostas de terapeutas humanos com aquelas geradas pelo ChatGPT em situações de terapia de casal.
Eles também acharam a IA mais culturalmente competente do que os terapeutas humanos.
Dr. Hatch argumenta que há uma escassez de profissionais de saúde mental. A IA pode ser uma alternativa para expandir o acesso ao suporte psicológico.
No entanto, ele ressalta que esses sistemas ainda precisam de supervisão humana para garantir sua eficácia e segurança.
O futuro da regulação da terapia com inteligência artificial
A APA pediu que a Comissão Federal de Comércio dos EUA inicie investigação sobre o uso de IA na psicoterapia.
Isso pode resultar em novas regulamentações para coibir práticas enganosas da terapia com inteligência artificial. Também visa evitar danos aos usuários. Nos Estados Unidos, o debate sobre como regular essas ferramentas está apenas começando.
Especialistas alertam que o avanço da tecnologia pode superar a capacidade de fiscalização dos órgãos reguladores.
Como o problema é visto no Brasil?
O Brasil não é exceção. Já se ouve falar de muita gente fazendo terapia com ChatGPT, por exemplo.
No Brasil, a Resolução CFP nº 09/2024, do Conselho Federal de Psicologia, regulamenta o uso da tecnologia na prática profissional online.
Ela garante que apenas psicólogos licenciados possam oferecer serviços mediado por plataformas digitais.
Mas ela não trata especificamente dos problemas recém surgidos com a possibilidade de pessoas fazerem terapia com inteligência artificial.
A presença de aplicativos e chatbots que simulam atendimento psicológico também cresce por aqui. Isso levanta a necessidade de maior conscientização e regulamentação.
Até que ponto podemos confiar na inteligência artificial para lidar com questões tão delicadas quanto a saúde mental?
A promessa da tecnologia é sedutora, mas será que os riscos não superam os benefícios?
Até que ponto? Mesmo que a IA evolua a ponto de atingir uma suposta eficiência terapêutica, vamos querer isso? Que a relação terapêutica humana seja substituída por máquinas?
E essas máquinas serão programadas por quem? E com que finalidade última?
Descubra mais sobre Psicólogo Online e Presencial em Curitiba
Assine para receber nossas notícias mais recentes por e-mail.