Renato Opice Blum, advogado, economista, professor de Direito Digital, IA e Proteção de Dados na ESPM, Diretor da Divisão de Cibersegurança da FIESP e conselheiro da Europrivacy
Resolução em vigor inclui proibição de deepfakes e exigência de identificação de conteúdos gerados artificialmente, além de ampliar a vigilância sobre campanhas e redes sociais
Mesmo sem uma lei específica sobre Inteligência Artificial, o Tribunal Superior Eleitoral (TSE) já dispõe de instrumentos normativos para coibir o uso indevido da tecnologia nas eleições de 2026. Desde fevereiro de 2024, está em vigor a Resolução nº 23.732, que estabelece regras para o uso de IA durante o período eleitoral.
De acordo com Renato Opice Blum, advogado, economista, professor de Direito Digital, IA e Proteção de Dados na ESPM, Diretor da Divisão de Cibersegurança da FIESP e conselheiro da Europrivacy, a Resolução tem força normativa equivalente à de uma lei no âmbito eleitoral.
Isso ocorre, segundo o especialista, porque o TSE exerce o chamado poder de polícia, que lhe permite regulamentar e fiscalizar condutas relacionadas ao processo eleitoral. “Mesmo sem uma lei específica, que deve ser aprovada no primeiro semestre de 2026, já existe uma normatização válida e aplicável”, afirma.
Na prática, as regras permitem diferenciar o uso legítimo da Inteligência Artificial em campanhas, como edição de materiais ou automação de processos, da criação e disseminação de conteúdos falsos ou manipulados com potencial de induzir o eleitor ao erro. A resolução veda expressamente o uso de deepfakes e prevê sanções quando houver comprovação de irregularidade.
Um dos pontos centrais da norma é a exigência de rotulagem, onde todo conteúdo produzido com o uso de IA deve conter um sinal identificável, como uma marca d’água, informando que foi gerado artificialmente.
A comprovação de que determinado material é falso ou manipulado, no entanto, cabe a quem faz a denúncia, e a análise tende a ocorrer caso a caso, considerando contexto, finalidade e impacto do conteúdo.
As regras também ampliam a responsabilidade das plataformas digitais, especialmente nos casos de conteúdo impulsionado. Há exigências específicas de credenciamento, identificação de quem paga pelo impulsionamento e restrições sobre quais tipos de conteúdo podem ser promovidos. Dependendo da situação, as plataformas podem ser responsabilizadas pelo material que impulsionam.
Atualização do arcabouço normativo
Paralelamente à aplicação das regras já vigentes, o TSE vem adotando uma postura proativa na atualização do arcabouço normativo para 2026. Na semana passada, o Tribunal colocou em consulta pública as minutas de resolução com propostas de mudanças que abrangem desde o calendário eleitoral e regras de pré-campanha até a responsabilidade das plataformas digitais pela remoção de conteúdos que atentem contra o processo eleitoral.
Contudo, apesar do endurecimento proposto em relação às redes sociais, inclusive com a possibilidade de retirada de conteúdo sem ordem judicial, o TSE manteve inalteradas as normas sobre o uso de Inteligência Artificial aprovadas em 2024, sinalizando a intenção de reforçar a fiscalização e a responsabilização sem ampliar, por ora, as regras específicas sobre IA na propaganda eleitoral.
Para Renato, o principal desafio da Justiça Eleitoral será equilibrar o combate à desinformação e à manipulação digital com a garantia da liberdade de expressão. “Não há uma solução binária. A avaliação será sempre contextual, considerando se o conteúdo está protegido pela liberdade de expressão ou se teve um propósito ilícito”, diz.
Para as eleições de 2026, a expectativa é de um cenário mais complexo, com maior volume de ferramentas, sofisticação tecnológica e intensidade de uso da IA, o que deve ampliar a carga de trabalho do TSE.
