O avanço acelerado da inteligência artificial, aliado à mudança de postura política das grandes plataformas digitais, deve tornar o combate à desinformação nas eleições de 2026 ainda mais complexo do que em pleitos anteriores. O alerta é de organizações que integram o Programa Permanente de Enfrentamento à Desinformação, criado em 2021 pelo Tribunal Superior Eleitoral (TSE).
Especialistas apontam que redes sociais têm encerrado ferramentas de transparência, alterado políticas internas e se posicionado de forma contrária a regulações que imponham obrigações às plataformas. Esse movimento, segundo pesquisadores, dificulta o monitoramento da circulação de conteúdos enganosos e reduz a capacidade de resposta das instituições.
Entre as mudanças mais sensíveis está o fim de instrumentos que permitiam acompanhar o alcance e a disseminação de publicações. Um exemplo é o encerramento do CrowdTangle, ferramenta da Meta amplamente utilizada por jornalistas e pesquisadores para analisar conteúdos compartilhados. A alternativa apresentada pela empresa, a Meta Content Library, é considerada mais restritiva, com limitações no acesso e na exportação de dados.
O mesmo ocorre na plataforma X (antigo Twitter), que passou a cobrar pelo acesso à sua API — ferramenta essencial para pesquisas sobre desinformação. O custo elevado inviabiliza o uso por pesquisadores independentes, universidades e organizações da sociedade civil.
De acordo com especialistas, a redução da transparência compromete a identificação de padrões, a análise de campanhas coordenadas e a compreensão do impacto de conteúdos enganosos no debate público. Em um ambiente com menos dados disponíveis, torna-se mais difícil caracterizar omissões ou falhas das próprias plataformas no enfrentamento à desinformação.
Inteligência artificial amplia riscos
Além das mudanças institucionais das big techs, a inteligência artificial surge como um fator adicional de preocupação. Ferramentas generativas permitem a criação de textos, imagens, vídeos e áudios com aparência profissional e baixo custo, o que pode facilitar a disseminação de conteúdos falsos ou manipulados por novos atores políticos.
Pesquisadores alertam ainda para a falta de transparência sobre os critérios utilizados por modelos de IA ao mencionar candidatos ou temas políticos em respostas a eleitores. Embora o TSE determine que conteúdos produzidos com uso de inteligência artificial sejam identificados, especialistas avaliam que a fiscalização ainda é limitada.
Marco Civil e Justiça Eleitoral
O julgamento do artigo 19 do Marco Civil da Internet pelo Supremo Tribunal Federal ampliou a possibilidade de responsabilização das plataformas digitais. No entanto, o STF estabeleceu ressalvas para conteúdos eleitorais, que continuam sob a competência da Justiça Eleitoral.
Ainda assim, especialistas avaliam que o Marco Civil pode impactar indiretamente o ambiente eleitoral, especialmente em discussões que não se enquadram formalmente como propaganda política, mas influenciam o ecossistema do debate público.
Atuação do TSE em 2026
Durante as eleições de 2026, o TSE será presidido pelo ministro Kássio Nunes Marques, indicado ao Supremo em 2020. Caberá a ele definir as prioridades da Justiça Eleitoral no enfrentamento à desinformação.
Em janeiro, o tribunal divulgou a primeira versão das resoluções que vão orientar o pleito. O texto preliminar proíbe expressamente o uso de deepfakes e de conteúdos fabricados ou manipulados para disseminar mentiras. As normas ainda estão em discussão e serão votadas pelos ministros.
Enquanto isso, organizações da sociedade civil e centros de pesquisa seguem alertando: sem transparência das plataformas e com o uso crescente da inteligência artificial, o combate à desinformação em 2026 tende a ser um dos maiores desafios da democracia brasileira nos próximos anos.




