Lito Brazil

O TSE e a Arquitetura do Não: IA nas Eleições de 2026 e a Luta pelo Direito de Ser Ouvido

O TSE e a Arquitetura do Não: IA nas Eleições de 2026 e a Luta pelo Direito de Ser Ouvido

Em ano eleitoral, o Brasil vira um país de áudio encaminhado. O debate público já não acontece apenas em palanques ou jornais; ele acontece em correntes de WhatsApp, em vídeos curtos, em cortes fora de contexto, em memes que parecem inocentes até o momento em que você percebe que eles reprogramaram sua emoção. Quando a inteligência artificial entra nesse circuito, ela não entra como “tecnologia do futuro”. Ela entra como amplificador do que o Brasil já é: um país onde a política corre na velocidade da rede e onde a desigualdade define quem tem megafone — e quem vira alvo.

Nos últimos dias, conteúdos jornalísticos e institucionais têm sinalizado um movimento importante: o Tribunal Superior Eleitoral (TSE) está tentando estabelecer regras para o uso de inteligência artificial nas eleições de 2026. Isso inclui restrições e obrigações que, em linguagem comum, tentam impedir que a campanha vire uma fábrica automatizada de falsidades. Em paralelo, o Senado e a Câmara seguem discutindo o marco legal de IA (PL 2338/2023), que pretende criar um regime de responsabilidades, direitos e deveres para sistemas de IA no país. A pergunta que São Paulo precisa fazer não é apenas “quais são as regras?”. A pergunta é: o Brasil vai conseguir construir uma arquitetura do ‘não’ antes que a tecnologia transforme a democracia em teatro de sombras?

Eu uso “arquitetura do não” de propósito. Porque o problema não é só detectar deepfakes. O problema é que sistemas que não conseguem dizer “não” — para o impulsionamento ilícito, para o uso de dados pessoais sem consentimento, para a manipulação algorítmica de emoções, para a automação de desinformação em massa — viram infraestrutura de abuso. E o Brasil tem experiência nisso. Em 2018 e 2022, o WhatsApp foi usado como arma política em escala. Em 2025, golpes no WhatsApp ficaram mais convincentes com IA generativa. O que muda em 2026 é a maturidade do ecossistema: agentes automáticos, clonagem de voz, geração de vídeo e texto em volume industrial. A fricção cai. A escala sobe. E quando fricção cai e escala sobe, quem não tem poder vira matéria-prima.

Há um detalhe que parece técnico, mas é político: a maior parte das pessoas não vai “ver um deepfake” e decidir racionalmente. A maior parte das pessoas vai sentir. Vai sentir medo, raiva, nojo, esperança — e vai agir. A IA se tornou uma tecnologia de afeto. E é por isso que regulação eleitoral não pode ser apenas um checklist de conteúdos proibidos. Precisa ser uma disciplina de proteção do espaço público. Precisa ser uma forma de impedir que a democracia seja reduzida a um mercado de atenção em que vence quem compra mais automação.

Quem se protege quando o TSE regula?

Uma parte do Brasil vai ler as regras do TSE como censura. Outra parte vai ler como insuficiente. A lente da Amefricanidade nos obriga a perguntar: quem, historicamente, paga o preço quando “a ordem” decide se impor? E quem, historicamente, paga o preço quando “a ordem” não se impõe e o caos informacional vence?

Na prática, a resposta costuma ser a mesma: pobres, negros, periféricos. Porque, no Brasil, a desinformação e a violência institucional são duas faces da mesma moeda. Quando a mentira corre solta, a periferia vira alvo de pânico moral: “bandido”, “invasor”, “ameaça”. Quando o Estado reage, a periferia vira o território onde a reação é testada: mais polícia, mais vigilância, mais exceção. Um marco eleitoral que tenta conter IA precisa não apenas impedir deepfakes, mas também impedir que o combate ao deepfake vire justificativa para expandir vigilância e censura seletiva.

Esse é o ponto que quase ninguém quer encarar: regular IA nas eleições não é só combater a mentira. É escolher qual tipo de poder vai crescer. O poder da transparência e da responsabilização, ou o poder do monitoramento e da coerção. E o Brasil é um país onde tecnologias de monitoramento quase sempre encontram primeiro os corpos de sempre.

O que o PL 2338 tem a ver com isso

O PL 2338/2023 é, em tese, o arcabouço que deveria sustentar esse momento. Ele promete organizar o campo: riscos, responsabilidades, direitos do cidadão, obrigações de quem desenvolve e implementa IA. No YouTube, há desde vídeos curtos dizendo que o PL “pode mudar tudo” até seminários longos da Câmara e do Senado debatendo impactos no jurídico e em setores específicos. O sinal, para mim, é claro: o Brasil está tentando correr atrás da tecnologia. Mas correr atrás não basta. O país precisa decidir onde coloca os seus limites.

Porque, sem limites operacionais, regulação vira texto bonito. E texto bonito não segura o trem quando ele já está descarrilando. Em ano eleitoral, o que segura é capacidade de auditoria, rastreabilidade de campanhas, responsabilização de plataformas e fornecedores, e um mínimo de controle social sobre como ferramentas de IA estão sendo usadas. O que segura é o “não”: não ao disparo ilegal; não à opacidade de origem; não à automação de assédio; não à compra de influência por quem tem mais dinheiro.

E aqui a desigualdade volta com força. Quem terá acesso às melhores ferramentas de IA? Quem terá “inteligência premium” para testar mensagens, segmentar públicos, otimizar emoção, personalizar manipulação? Se a corrida eleitoral vira corrida de tecnologia, o que acontece com candidaturas de base, movimentos sociais, lideranças comunitárias? A promessa democrática de que ideias competem em pé de igualdade já era frágil; com IA, ela pode virar ficção.

O Brasil precisa de uma democracia que saiba dizer “não” — e também “sim”

O “não” é necessário, mas não suficiente. Uma democracia saudável também precisa saber dizer “sim” — sim à participação pública, sim à educação midiática e digital, sim a mecanismos acessíveis de denúncia e contestação, sim a transparência sobre conteúdo sintético, sim a proteção de jornalistas, professores e lideranças comunitárias que viram alvo de campanhas automatizadas.

O Brasil já tem infraestrutura para fazer coisas grandes quando decide. Pix é prova. O que falta é a mesma coragem institucional aplicada ao espaço informacional: construir uma infraestrutura pública de confiança. Isso não significa que o Estado deva controlar a verdade. Significa que o Estado, as plataformas e a sociedade precisam construir mecanismos de verificação e responsabilidade que não dependam de heroísmo individual. Porque, se deixarmos a tarefa de “discernir a verdade” para cada cidadão isolado em sua timeline, a democracia perde. A timeline é uma máquina de exaustão.

Eu penso em 2026 como um teste de maturidade. O TSE tenta colocar trilhos. O Congresso tenta escrever o mapa. As plataformas tentam manter o lucro. E o povo tenta sobreviver ao ruído. A pergunta é: vamos construir limites que protegem o coletivo — ou vamos apenas reagir quando a primeira onda de deepfakes decidir o resultado antes do debate acontecer?

E aqui eu volto ao que me guia: o quilombo como governança da identidade. O quilombo não existia porque o mundo era justo; ele existia porque o mundo era perigoso e a identidade precisava ser protegida. Em 2026, a democracia brasileira precisa aprender a mesma lição: não basta “deixar fluir”. É preciso proteger o espaço onde a voz coletiva se forma. É preciso impedir que a máquina substitua o povo.

Então eu termino com uma pergunta simples, que eu gostaria que estivesse na parede de cada comitê eleitoral e de cada gabinete em Brasília: quando a IA começar a falar por nós — em nosso nome, com nossa voz, com nosso rosto — quem terá o poder de dizer “não”? E quem terá o cuidado de garantir que esse “não” proteja o povo, e não apenas os donos do poder?

Leave a Reply

Your email address will not be published. Required fields are marked *