Pular para o conteúdo

IA na medicina falha com mulheres negras: invisibilidade algorítmica

    Um estudo publicado pela revista Science Advances revelou falhas graves em um dos modelos de IA na mais citados.

    Este modelo de inteligência artificial é usado na detecção de por meio de radiografias de tórax. Ele apresenta problemas quando se trata de pacientes negras e mulheres.

    Esse achado traz à tona uma questão urgente. A confiança crescente na IA na medicina pode estar aprofundando desigualdades históricas? Isso pode ocorrer em vez de superá-las?

    O modelo em questão, chamado CheXzero, foi treinado com quase 400 mil radiografias de pacientes de Boston.

    Ele se destacou justamente por aprender a detectar doenças sem acessar os relatórios clínicos que indicavam os diagnósticos.

    Ou seja, aprendeu “sozinho” a identificar padrões e associá-los a doenças pulmonares e cardíacas. Até aí, parecia um avanço promissor.

    No entanto, os resultados foram alarmantes ao ser testado em imagens de pacientes com dados completos. Esses dados incluíam raça, e idade.

    Segundo os pesquisadores, o modelo deixou de identificar doenças em metade das mulheres negras.

    Este problema é especialmente preocupante em diagnósticos como cardiomegalia (aumento do coração).

    Os erros também foram mais frequentes entre pessoas com menos de 40 anos e pacientes negros em geral.

    👉 Leia mais em AI models miss disease in Black and female patients.

    ia na medicina: uma mulher negra observa um raio x de torax analisado pela IA

    A medicina pode se dar ao luxo de errar mais com quem sempre foi invisibilizado?

    Quando a falha justamente com os corpos que historicamente já sofreram. Eles já lidaram com negligência institucional.

    Leia mais!  O que mais dá prazer no sexo: pesquisa revela

    Assim, o problema deixa de ser técnico. Ele se torna ético. O que acontece quando modelos que deveriam universalizar o acesso à saúde reforçam as exclusões já existentes?

    A IA, ao ser treinada com dados desiguais, acaba espelhando essas desigualdades. O CheXzero, por exemplo, foi treinado com mais imagens de homens brancos entre 40 e 80 anos.

    Com isso, aprendeu a reconhecer melhor doenças nesse grupo, e a errar mais fora dele. E o mais impressionante: os pesquisadores descobriram algo surpreendente. A IA conseguia identificar raça, gênero e idade a partir das imagens.

    A precisão era muito maior do que a dos radiologistas experientes. Esses dados estavam codificados nos corpos. Embora invisíveis a olho nu, a IA os usava como atalho para “adivinhar” diagnósticos.

    Por exemplo, se a IA começa a associar determinadas doenças a certas raças, corremos o risco de reforçar estigmas. O mesmo pode acontecer com associações feitas com base em idades usando padrões distorcidos.

    Quem garante que um erro de não será interpretado como falta de cuidado pessoal? Quem garante que não será visto como má conduta? Ou quem garante que não será considerado irresponsabilidade da pessoa atendida?

    IA na medicina: potência ou perigo?

    É inegável que a IA na medicina tem potencial para acelerar diagnósticos, reduzir custos e ampliar o alcance de atendimentos. No entanto, esse poder precisa ser acompanhado de vigilância ética constante.

    A pesquisadora Judy Gichoya, uma das vozes citadas no matéria da Science, diz “a IA não pode ser deixada sozinha”. A presença humana — e crítica — é indispensável.

    Estamos diante de uma tecnologia que lê o invisível, mas não necessariamente compreende o que vê. Ela decodifica sinais que nem os olhos treinados dos médicos percebem. Mas interpreta esses sinais com base em estatísticas, não em histórias.

    Leia mais!  Uso excessivo do celular: simples mudança melhora qualidade de vida

    E saúde não é só número, é contexto, é corpo, é subjetividade.

    Psicologia e tecnologia: onde nos colocamos?

    Para quem atua na Psicologia, esse debate também importa. Afinal, somos atravessados pelas mesmas tecnologias. A análise crítica das ferramentas digitais é uma exigência ética.

    E isso inclui refletir sobre os efeitos subjetivos do uso de IAs na área da saúde.

    Como pessoas negras e mulheres se sentem ao saber que a IA acerta menos com elas? Como isso afeta sua relação com o cuidado, com o corpo, com os serviços de saúde? Que marcas subjetivas esse tipo de exclusão carrega?

    Além disso, a própria ideia de “diagnóstico automatizado” nos desafia. Ao confiarmos cegamente em sistemas que não consideram o contexto da pessoa atendida, corremos o risco de desumanizar o cuidado.

    Algo que vai na contramão de tudo o que a Psicologia propõe como compromisso com a dignidade humana.

    Para onde vamos?

    Talvez a maior lição seja essa: não existe inteligência sem ética. E o cuidado real não existe quando parte da população é sistematicamente excluída. Esses grupos estão fora dos padrões considerados “normais” por um algoritmo.

    Como profissionais da saúde, precisamos nos perguntar:

    • Que tipo de saúde queremos promover com a IA?
    • Quem está ensinando esses sistemas?
    • E, principalmente, quem está sendo deixado para trás?

    A tecnologia pode, sim, nos ajudar a cuidar melhor. Mas só se for construída com diversidade, justiça e consciência crítica.


    Descubra mais sobre Psicólogo Online e Presencial em Curitiba

    Assine para receber nossas notícias mais recentes por e-mail.

    Deixe um comentário

    O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *