Eleições 2026: novas resoluções do TSE contra uso da desinformação são um avanço, mas ainda há lacunas estruturais

As resoluções aprovadas pelo Tribunal Superior Eleitoral representam um esforço institucional relevante, ainda que a velocidade do contágio da desinformação nas redes sociais tenda sempre a superar a capacidade de resposta institucional

6 mai 2026 - 11h45

As eleições brasileiras de 2022 foram marcadas por um fenômeno que vai além da disputa entre candidatos: a desinformação operou como uma estratégia discursiva de contágio, mobilizando afetos e opiniões por meio das redes sociais digitais de forma sistemática e coordenada. A narrativa sobre a suposta "fraude nas urnas eletrônicas", amplamente difundida pelo então candidato Jair Bolsonaro, não foi um episódio isolado - foi o resultado de um ecossistema informacional vulnerável, alimentado por algoritmos, bolhas digitais e pela ausência de um marco regulatório eficaz para a propaganda eleitoral na internet.

Quatro anos depois, o Tribunal Superior Eleitoral (TSE) aprovou, em março de 2026, 14 resoluções destinadas a orientar as eleições gerais deste ano. Entre os temas centrais estão o uso de inteligência artificial, a propaganda eleitoral em plataformas digitais e a responsabilidade das Big Techs na moderação de conteúdo. A pergunta que se impõe é: o novo marco regulatório é capaz de enfrentar os mecanismos de contágio desinformativo que se consolidaram em 2022?

Publicidade

O que dizem as novas resoluções

Para responder a essa pergunta, é necessário compreender a natureza do problema. A desinformação não é apenas um ruído informacional - ela é uma estratégia discursiva que opera sobre os regimes de verdade de uma sociedade, construída sobre estruturas narrativas que mobilizam o afeto antes da razão. No caso das eleições de 2022, a narrativa sobre as urnas eletrônicas foi cuidadosamente construída ao longo de anos, repetida em diferentes formatos e plataformas, amplificada por algoritmos que privilegiam o engajamento emocional sobre a precisão factual.

Diante desse diagnóstico, as resoluções aprovadas pelo TSE para 2026 representam um esforço institucional relevante. Entre os principais dispositivos, destacam-se as normas sobre inteligência artificial: fica proibida a publicação ou o impulsionamento de conteúdos gerados por IA nas 72 horas anteriores e nas 24 horas posteriores ao pleito. Além disso, qualquer material que utilize IA deve declarar obrigatoriamente o uso da tecnologia e identificar qual ferramenta foi empregada.

No campo da responsabilidade das plataformas, as resoluções avançam de forma significativa. Os provedores passam a poder ser responsabilizados solidariamente caso não removam conteúdos sintéticos ilegais após notificação, criando um incentivo concreto para maior agilidade na moderação. Conteúdos que ataquem as urnas eletrônicas ou incentivem atos antidemocráticos deverão ser removidos imediatamente, mesmo sem decisão judicial. As plataformas também precisarão desenvolver planos de conformidade que demonstrem mecanismos para impedir que algoritmos induzam o eleitor a seguir determinado candidato por influência automatizada.

Outra inovação relevante diz respeito à transparência no impulsionamento pago. As resoluções exigem identificação inequívoca do patrocínio e obrigam as plataformas a manter repositório público com informações sobre anúncios políticos. Adicionalmente, juízes eleitorais deverão consultar um repositório de julgados do TSE ao analisar publicações com informações falsas ou gravemente distorcidas sobre as urnas e o processo eleitoral, para uniformizar as decisões e reduzir a discricionariedade na avaliação de casos concretos.

Publicidade

Os limites da regulação

Ainda que os avanços sejam inegáveis, persistem lacunas estruturais que merecem atenção crítica. A primeira delas é permanente, pois a velocidade do contágio informativo nas redes tende a superar a capacidade de resposta institucional. Como a própria lógica do contágio demonstra, uma mentira bem contada viraliza antes de qualquer correção ou remoção. O dano informativo muitas vezes já está consolidado quando a Justiça Eleitoral intervém.

A segunda lacuna é de isonomia, pois as resoluções permitem que críticas ao governo federal, inclusive com impulsionamento pago, não sejam caracterizadas como propaganda eleitoral antecipada negativa, desde que não façam referência direta às eleições.

Já a terceira lacuna é estrutural e talvez seja a mais complexa: as normas regulam condutas, mas não alteram a arquitetura das plataformas. A exigência de planos de conformidade é um passo importante, mas a eficácia dessas medidas dependerá da capacidade técnica de monitoramento contínuo e de cooperação estruturada com universidades, centros de pesquisa e organizações da sociedade civil.

O adversário que não existia em 2022

O lançamento do ChatGPT em novembro de 2022 marcou o início de uma revolução tecnológica precisamente no limiar do segundo turno das eleições brasileiras. Essa coincidência cronológica é reveladora, pois enquanto o país lidava com as fragilidades de seu ambiente informacional, surgia uma ferramenta cujos impactos sobre a democracia ainda desafiam nossa capacidade de mensuração.

Publicidade

Diante do receio acadêmico de que a IA generativa pudesse desestabilizar o processo democrático, a Resolução de 2024 estabeleceu marcos cruciais para o primeiro pleito sob essa nova realidade, proibindo o uso de deepfakes e exigindo a rotulagem de conteúdos sintéticos. Contudo, o relatório do Observatório de IA nas Eleições revelou que o uso massivo esperado não se concretizou, pois apesar de casos graves de deepnudes terem surgido, a presença da IA nas campanhas foi menos disseminada do que o previsto.

Essa aparente calmaria, no entanto, foi apenas o prelúdio de um deslocamento temporal da ameaça, a disseminação de conteúdos falsos produzidos com IA teve um crescimento de 308% entre 2024 e 2025 no Brasil, ou seja, num cenário pós-eleições. Em 2024, a IA era usada preferencialmente para golpes digitais; em 2025, o uso específico da tecnologia como arma política se consolidou, com quase 45% dos conteúdos de IA com forte viés ideológico.

Essa transição do uso esporádico para a consolidação sistêmica encontra explicação na teoria do contágio, que pressupõe uma dinâmica de imitação e repetição que se propaga por redes sociais humanas. Com a inserção da IA, esse contágio deixa de ser um fenômeno social espontâneo e passa a ser uma operação tecnológica programável. Mais do que a simples replicação, surge aqui uma dimensão mais sutil e talvez mais perigosa: o que pesquisadores chamam de "uso estratégico da dúvida". Com a popularização dos deepfakes, surge um dilema: como alertar para conteúdos manipulados sem abrir espaço para que provas reais sejam desacreditadas sob o argumento de que "tudo pode ser IA"? Essa inversão é particularmente grave no contexto brasileiro pós-2022. Se a estratégia discursiva de Bolsonaro foi semear dúvidas sobre a integridade das urnas, a IA generativa oferece a qualquer ator político uma nova forma de semear dúvida sobre a integridade de qualquer evidência.

Regulamentar o uso da IA nas eleições exige, antes de tudo, compreender como ela opera sobre os regimes de verdade de uma sociedade. Como as ferramentas de IA se apresentam muitas vezes como neutras e objetivas, alucinações desses sistemas podem ameaçar a integridade das informações, e o ranqueamento ou opiniões sobre candidaturas por parte deles também pode trazer assimetrias ao debate eleitoral.

Publicidade

Mais do que um problema de conteúdo, a desinformação que ameaçou o pleito de 2022 revelou uma falha estrutural. Embora o novo marco regulatório seja um avanço necessário, ele permanece insuficiente; afinal, o desafio para 2026 transcende o campo normativo para se tornar, fundamentalmente, epistêmico.

The Conversation
The Conversation
Foto: The Conversation

Alana Maria Passos Barreto não presta consultoria, trabalha, possui ações ou recebe financiamento de qualquer empresa ou organização que poderia se beneficiar com a publicação deste artigo e não revelou nenhum vínculo relevante além de seu cargo acadêmico.

Este artigo foi publicado no The Conversation Brasil e reproduzido aqui sob a licença Creative Commons
Fique por dentro das principais notícias
Ativar notificações