A inteligência artificial chegou com força à saúde mental e ao diagnóstico psiquiátrico com IA.
Um estudo de 2023 mostrou que o ChatGPT-3.5 teve ótimo desempenho ao analisar 100 casos clínicos de psiquiatria. E essa nem é a versão mais recente da ferramenta, cuja versão 5.0 será lançada em breve.
Em mais da metade dos casos, a IA deu respostas consideradas excelentes por psiquiatras experientes. Mas o que esse avanço significa na prática?
Será que os diagnósticos feitos por humanos estão com os dias contados? E mais importante: queremos mesmo ser avaliados por máquinas?
Índice

Diagnosticar é mais do que dar um nome
O diagnóstico em saúde mental é uma tentativa de dar sentido ao sofrimento. Ele ajuda na comunicação entre profissionais, na escolha de tratamentos e até na organização de políticas públicas. Mas ele também pode reduzir a pessoa a um rótulo.
Quando falamos em diagnóstico psiquiátrico com IA, estamos falando de sistemas que aprendem com grandes volumes de dados. Eles reconhecem padrões e tentam responder com base nisso. O problema é que cada pessoa sofre de um jeito. E nem todo sofrimento se encaixa em um padrão.
A IA acerta, mas entende?
É verdade que o ChatGPT foi elogiado por suas respostas técnicas. Ele sabe nomear transtornos, sugerir condutas e até propor manejos. Mas isso basta?
A IA não sente. Ela não percebe o tom da voz, a hesitação, o silêncio carregado de significado. Ela também não conhece o contexto social, histórico e afetivo de quem fala. Diagnosticar é, muitas vezes, escutar o que não foi dito. E isso ainda é tarefa humana.
O risco da máquina saber demais (ou de menos)
Uma IA pode parecer segura. Ela responde com firmeza e rapidez. Mas essa confiança esconde um perigo: ela pode errar — e a gente nem perceber. Como saber se o que foi “diagnosticado” era realmente o que estava acontecendo?
Além disso, a IA aprende com os dados que recebe. Se esses dados tiverem preconceitos — como racismo, machismo ou capacitismo — a IA pode repeti-los. Pior: pode fazê-lo com a aparência de neutralidade.
Num diagnóstico psiquiátrico com IA, quem garante que a singularidade de uma pessoa foi respeitada?
Seremos substituídos?
Talvez não. A IA é boa em reconhecer padrões. Mas o que foge aos padrões continua sendo papel nosso. O ser humano é feito de nuances. De contradições. De histórias que não cabem em categorias.
A IA pode ser uma ferramenta. Pode até ajudar profissionais a pensar em possibilidades. Mas nunca deve tomar o lugar da escuta verdadeira. A escuta que acolhe sem tentar encaixar. Que respeita o tempo do outro. Que aceita não saber de imediato.
Diagnóstico psiquiátrico com IA e cuidado: ainda precisamos dos dois?
Sim, desde que com cuidado. Diagnósticos não devem ser armas. Nem muros. Devem ser pontes. Mas, quando viram produtos automatizados, perdem essa função. É preciso olhar com cautela para a união entre tecnologia e saúde mental.
Usar IA não pode significar abrir mão da ética, do vínculo e do respeito. Por isso, ao pensar em diagnóstico psiquiátrico com IA, precisamos lembrar que saúde mental não se resume a uma resposta rápida.
Saúde mental exige escuta. Ela também requer presença e afeto.
Vale refletir
- Você se sentiria confortável sendo diagnosticado por uma máquina?
- Como garantir que sua história será respeitada em sistemas automáticos?
- O que torna o cuidado em saúde mental verdadeiramente humano?
As respostas podem não ser simples. Mas a pergunta central continua atual: quem deve decidir sobre a dor humana — uma pessoa ou um algoritmo?
Referência
D’SOUZA, Russell Franco; AMANULLAH, Shabbir; MATHEW, Mary; SURAPANENI, Krishna Mohan. Appraising the performance of ChatGPT in psychiatry using 100 clinical case vignettes. Asian Journal of Psychiatry, [S.l.], v. 89, nov. 2023, p. 103770. Elsevier.
Descubra mais sobre Psicólogo Online e Presencial em Curitiba
Assine para receber nossas notícias mais recentes por e-mail.