A disseminação de desinformação nas redes sociais não é um fenômeno novo. Contudo, a introdução de modelos de linguagem avançados trouxe novas camadas de complexidade ao problema. Fake news e inteligência artificial são dois temas combinados que precisam ser endereçados urgentemente.
O estudo “Large language models can consistently generate high-quality content for election disinformation operations” aponta que os modelos de inteligência artificial podem ser utilizados para gerar desinformação eleitoral de forma altamente convincente.
Isso acende um alerta para os impactos psicológicos dessa tecnologia na formação da opinião pública.
Índice

Psicologia de massas e desinformação
A teoria da Psicologia de Massas, de Le Bon, sugere que indivíduos, em grupos, perdem a capacidade crítica. Eles se tornam mais suscetíveis à influência externa. Essa dinâmica se intensifica na era digital.
Algoritmos, fake news e inteligência artificial amplificam conteúdos direcionados. Isso reforça crenças pré-existentes e torna o público ainda mais vulnerável a narrativas manipuladas.
Os viéses cognitivos, como o viés de confirmação, desempenham um papel crucial nesse processo. Quando uma fake news coincide com crenças preexistentes, o cérebro tende a aceitar a informação.
Isso acontece sem que haja questionamento. A IA pode refinar a personalização desse conteúdo ao analisar padrões de comportamento. Essa prática torna a manipulação mais eficaz e quase imperceptível para o usuário médio.
O papel da IA na produção de fake news
O estudo citado mostra que os modelos de linguagem testados geraram conteúdo enganoso de forma indistinguível do produzido por humanos. Isso aconteceu em mais de 50% dos casos.
Isso significa que fake news e inteligência artificial, combinadas, podem fazer circular informações falsas sem despertar suspeitas. E isso molda narrativas políticas e sociais. Como se fossem a mais pura verdade.
O impacto disso afeta diretamente a confiança nas instituições democráticas. A desinformação pode induzir percepções equivocadas sobre processos eleitorais. Ela também pode influenciar opiniões sobre figuras políticas.
Outro fator preocupante é a escalabilidade dessa tecnologia. Diferente dos métodos tradicionais de produção de desinformação, era necessário um grande número de indivíduos para criar e disseminar conteúdos.
Agora, a IA permite que um único agente mal-intencionado gere e espalhe fake news em larga escala. Isso potencializa seu alcance e impacto.
Consequências psicológicas da desinformação automatizada
A exposição constante a informações fabricadas pode levar à fadiga informacional. Esse fenômeno ocorre quando o excesso de conteúdo confuso ou contraditório gera um estado de ceticismo generalizado.
Esse ceticismo pode fazer com que as pessoas rejeitem informações verdadeiras. Ele também pode torná-las apáticas em relação ao debate político e social.
Esse é um efeito desejado por atores que utilizam a inteligência artificial para manipulação em massa.
Além disso, a desinformação impacta diretamente a construção da identidade coletiva.
Quando grupos inteiros se baseiam em narrativas falsas para definir sua visão de mundo, surgem bolhas de informação cada vez mais rígidas. Isso dificulta o diálogo entre diferentes perspectivas. Também aumenta a polarização social.
Como combater a manipulação via IA?
O desafio de mitigar os efeitos das fake news e inteligência artificial exige um esforço multidisciplinar. Algumas estratégias incluem:
- Educação midiática: Ensinar a população a identificar sinais de desinformação e desenvolver pensamento crítico.
- Regulação e transparência: Implementação de políticas que exijam maior clareza sobre o uso de IA na produção de conteúdo digital.
- Desenvolvimento de tecnologias de detecção: Melhorar sistemas de identificação de conteúdos gerados artificialmente.
- Intervenções psicológicas: Criar campanhas que ajudem a reduzir a suscetibilidade da população a conteúdos manipulados.
Os avanços tecnológicos trazem tanto benefícios quanto desafios. Compreender o impacto psicológico da inteligência artificial na propagação de desinformação é essencial.
Isso é fundamental para proteger a integridade da informação e a saúde democrática da sociedade.
Referência
WILLIAMS, A. R.; BURKE-MOORE, L.; CHAN, R. S. Y.; ENOCK, F. E.; NANNI, F.; SIPPY, T.; CHUNG, Y. L.; GABASOVA, E.; HACKENBURG, K.; BRIGHT, J. Large language models can consistently generate high-quality content for election disinformation operations. PLOS ONE, v. 20, n. 3, p. e0317421, 2025.
Descubra mais sobre Psicólogo Online e Presencial em Curitiba
Assine para receber nossas notícias mais recentes por e-mail.