Inteligência Artificial nas Eleições 2026: o que a Resolução do TSE estabelece
Em 2 de março de 2026, o Tribunal Superior Eleitoral aprovou, por unanimidade, a Resolução n.º 23.748 — o instrumento regulatório mais abrangente já editado no mundo sobre o uso de inteligência artificial em eleições. A resolução, relatada pelo ministro Nunes Marques, modificou a Resolução TSE n.º 23.610/2019 sobre propaganda eleitoral e entrou em vigor com eficácia imediata para as Eleições Gerais de outubro de 2026 — nas quais mais de 155 milhões de eleitores escolherão Presidente da República, Governadores, Senadores e Deputados. O contexto que motivou a regulamentação é preciso: entre dezembro de 2025 e fevereiro de 2026, dois em cada três conteúdos políticos gerados por inteligência artificial circularam nas redes sociais sem qualquer sinalização de sua natureza sintética, representando um crescimento de 50% em relação ao período anterior. A proporção de conteúdo eleitoral produzido com auxílio de IA saltou de 4,65% em 2024 para 25,77% em 2025. O eleitor de 2026 será o primeiro a exercer o voto sob um conjunto de regras que tentam enfrentar esse fenômeno de forma sistêmica. Para candidatos, partidos, advogados eleitorais e empresas de tecnologia que atuam no mercado político, compreender essas regras não é uma questão de interesse acadêmico — é uma condição de compliance.
O que muda com a Resolução TSE n.º 23.748/2026
A Resolução n.º 23.748, de 4 de março de 2026, foi aprovada nas sessões administrativas de 26 de fevereiro e 2 de março e tem eficácia imediata para todos os pleitos das Eleições Gerais de outubro de 2026. Ela não cria um novo regime regulatório do zero — modifica e aprofunda a Resolução TSE n.º 23.610/2019, que trata da propaganda eleitoral, incorporando inovações trazidas pelas eleições municipais de 2024 e respondendo aos novos desafios identificados no ambiente tecnológico de 2026.
A estrutura da resolução organiza-se em torno de cinco eixos temáticos fundamentais, que serão analisados nas seções seguintes. O primeiro é a restrição temporal absoluta para conteúdo gerado por IA próximo ao dia da votação. O segundo é a obrigação de rotulagem de todo material de campanha que utilize inteligência artificial. O terceiro é a vedação de recomendação eleitoral por sistemas de IA. O quarto é a proibição específica de deepfakes, com ênfase na proteção de candidatas contra deepfakes de natureza sexual. O quinto é o regime de responsabilidade solidária das plataformas digitais. Cada um desses eixos tem consequências práticas distintas para os diferentes atores do processo eleitoral.
Uma inovação processual relevante perpassa todo o regime: a resolução admite a inversão do ônus da prova em processos que discutam manipulação digital, quando a comprovação da irregularidade se mostrar excessivamente onerosa para o autor da ação. Nesses casos, caberá ao responsável pela propaganda demonstrar como a tecnologia foi aplicada e comprovar a veracidade das informações divulgadas. Essa inversão altera fundamentalmente a dinâmica dos litígios eleitorais envolvendo conteúdo sintético — e é o elemento que mais diretamente afeta a estratégia de defesa jurídica de candidatos e partidos.
A janela de restrição: 72 horas antes, 24 horas depois
A medida de maior impacto prático da Resolução n.º 23.748/2026 é a restrição temporal absoluta: fica proibida a publicação, republicação ou o impulsionamento de novos conteúdos produzidos ou alterados por inteligência artificial nas 72 horas que antecedem cada turno de votação e nas 24 horas posteriores ao seu encerramento. A proibição incide sobre materiais que utilizem voz, imagem ou qualquer manifestação de candidatos ou figuras públicas gerada ou modificada por tecnologia de IA.
A racionalidade regulatória dessa medida é precisa e encontra fundamento na jurisprudência eleitoral consolidada. O chamado efeito calúnia de véspera — a disseminação de informação falsa ou distorcida nas horas imediatamente anteriores à votação, quando o tempo de resposta para desmentir é insuficiente — é reconhecido pelo direito eleitoral brasileiro como uma das formas mais graves de desequilíbrio do pleito. Com inteligência artificial generativa, o fenômeno se agrava exponencialmente: um vídeo deepfake produzido na véspera da eleição e distribuído em redes sociais pode atingir milhões de eleitores antes que qualquer resposta institucional seja possível. A janela de 72 horas é a resposta regulatória a essa realidade.
Para o compliance de campanha, essa regra tem implicações operacionais concretas. Qualquer material de propaganda digital — vídeo, áudio, imagem, texto — que tenha sido produzido ou editado com auxílio de IA deve ser publicado antes da janela de restrição ou substituído por material produzido sem IA. Conteúdos já publicados antes da janela podem permanecer no ar, desde que estejam devidamente rotulados — a proibição alcança apenas novos conteúdos publicados, republicados ou impulsionados no período crítico. A equipe jurídica de cada campanha deve estar em condições de verificar, em tempo real, se qualquer ação de impulsionamento programada para o período crítico utiliza materiais com IA, e suspendê-la imediatamente se for o caso.
Obrigação de rotulagem: o dever de informar o uso de IA
Fora do período de restrição absoluta, o uso de inteligência artificial na propaganda eleitoral é permitido — desde que cumprida a obrigação de rotulagem. Todo material de campanha que utilize recursos de IA para criar, substituir, omitir, mesclar ou alterar a velocidade ou sobrepor imagens e sons deve informar, de forma explícita, destacada e acessível, que o conteúdo foi fabricado ou manipulado, e qual tecnologia foi utilizada. A mesma lógica se aplica a chatbots e avatares utilizados em interação com eleitores: o usuário deve ser informado de que está conversando com um sistema automatizado, e não com uma pessoa.
A obrigação de rotulagem é mais abrangente do que pode parecer à primeira leitura. Ela não se limita a conteúdos inteiramente gerados por IA — alcança também conteúdos parcialmente modificados. Um vídeo real de um candidato ao qual foram adicionados elementos gerados por IA — uma voz sobreposta, um cenário alterado, uma fala acelerada ou desacelerada — está sujeito à rotulagem tanto quanto um vídeo inteiramente sintético. A distinção relevante não é entre real e falso, mas entre conteúdo que foi ou não processado por tecnologia de IA de forma que possa criar impressões enganosas sobre pessoas ou eventos.
O descumprimento da obrigação de rotulagem tem consequências imediatas: propagandas que não informarem o uso de IA podem ser retiradas do ar por iniciativa das próprias plataformas ou por determinação judicial. As plataformas, por sua vez, têm obrigação de actuar rapidamente após identificar o descumprimento — sob pena de responsabilidade solidária pelos danos causados. A cadeia de responsabilidade criada pela resolução — candidato, partido, empresa de marketing, plataforma — é deliberadamente ampla, para evitar que a ausência de rotulagem seja atribuída a qualquer elo isolado da cadeia de produção e distribuição do conteúdo.
Deepfake eleitoral: proibições e sanções
A Resolução n.º 23.748/2026 reforça e aprofunda a vedação ao uso de deepfakes no contexto eleitoral, estabelecida originalmente pela Resolução TSE n.º 23.732/2024. A proibição é dupla: fica vedada tanto a divulgação de conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito, quanto o uso de deepfakes especificamente para prejudicar ou favorecer candidatura. A distinção é relevante — o segundo tipo de proibição dispensa a comprovação de que os fatos são inverídicos: basta que o conteúdo seja identificado como deepfake e que tenha o propósito eleitoral de beneficiar ou prejudicar.
Uma vedação específica merece atenção particular: a resolução proíbe qualquer montagem ou alteração de imagem de candidata em situações de nudez, conteúdo sexual ou pornográfico. Essa proibição reconhece uma modalidade específica de violência política de gênero — o uso de deepfakes sexuais para atacar candidatas mulheres, fenômeno amplamente documentado nas eleições de 2022 e 2024. A produção de deepfake sexual contra candidata configura simultaneamente três ordens de ilícito: crime eleitoral sujeito ao regime punitivo do Código Eleitoral; violência política de gênero nos termos da Lei n.º 14.192/2021; e ilícito civil indenizável com fundamento nos artigos 186 e 927 do Código Civil e no artigo 5.º, inciso X, da Constituição Federal. A cumulação dessas responsabilidades é deliberada e sinaliza a gravidade com que o TSE trata a questão.
As sanções para o uso irregular de deepfakes em campanha vão além das multas e remoções de conteúdo que caracterizam infrações eleitorais menores. A resolução prevê como consequência possível a cassação do registro de candidatura — impedindo o candidato responsável de concorrer — e, em casos verificados após a eleição, a perda do mandato conquistado. Essas são as sanções mais graves do direito eleitoral brasileiro, normalmente reservadas para casos de abuso de poder econômico ou uso indevido dos meios de comunicação. Sua aplicação a casos de uso irregular de IA e deepfakes sinaliza que o Tribunal trata a desinformação tecnológica como equivalente em gravidade a esses ilícitos eleitorais tradicionais.
Responsabilidade das plataformas e provedores de IA
Um dos aspectos mais inovadores da Resolução n.º 23.748/2026 é a extensão significativa das obrigações e responsabilidades das plataformas digitais e dos provedores de inteligência artificial no contexto eleitoral. A resolução vai além do regime geral do Marco Civil da Internet — que condiciona a responsabilidade das plataformas à notificação e à omissão em remover conteúdo ilícito — para criar obrigações proativas específicas para o período eleitoral.
As plataformas estão vedadas de ranquear, recomendar, sugerir ou priorizar candidatos, campanhas, partidos políticos, federações ou coligações por meio de sistemas automatizados. A vedação abrange qualquer forma de favorecimento ou desfavorecimento político-eleitoral direto ou indireto — inclusive por meio de respostas automatizadas, mesmo quando solicitadas pelo usuário. Isso significa que sistemas de IA conversacional integrados a plataformas de redes sociais não podem, quando perguntados sobre candidatos ou eleições, emitir opiniões, indicar preferências ou recomendar votos. A neutralidade algorítmica no período eleitoral é uma obrigação, não uma escolha de design.
A responsabilidade solidária das plataformas por não remoção de conteúdo irregular após notificação é operacionalizada com critérios mais precisos do que os estabelecidos pelo Marco Civil. A resolução determina a remoção imediata — não apenas em prazo razoável — para determinadas categorias de conteúdo ilícito, incluindo deepfakes e conteúdos sem rotulagem. Além disso, plataformas que tomem conhecimento de uma decisão judicial de remoção ficam obrigadas a não apenas remover o conteúdo específico, mas a impedir a republicação de conteúdo idêntico ou substancialmente equivalente, sem necessidade de nova ordem judicial para cada instância.
Para empresas de tecnologia que prestam serviços de criação ou distribuição de conteúdo para campanhas eleitorais, a resolução impõe a elaboração de planos de conformidade destinados a prevenir riscos à integridade do processo eleitoral, bem como a manutenção de repositórios públicos com informações sobre impulsionamento pago de conteúdo político. A transparência sobre o investimento em propaganda digital — incluindo a identificação de uso de IA na produção do conteúdo — é uma obrigação que se aplica tanto às plataformas quanto aos anunciantes.
Perspectiva comparada: o Brasil no contexto global de regulação de IA eleitoral
O marco regulatório aprovado pelo TSE em março de 2026 posiciona o Brasil como um dos países com a regulação mais específica e abrangente do mundo sobre uso de inteligência artificial em eleições. A perspectiva comparada confirma a singularidade do modelo brasileiro e oferece parâmetros para avaliar sua adequação e efetividade.
O Regulamento (UE) 2024/1689 — AI Act — que entrou em vigor em agosto de 2024, classifica os sistemas de inteligência artificial destinados a influenciar o resultado de eleições ou referendos como sistemas de alto risco, submetendo-os a obrigações reforçadas de transparência, documentação técnica e supervisão humana. Essa classificação é estrutural — aplica-se permanentemente, não apenas durante o período eleitoral — e impõe obrigações aos desenvolvedores e operadores de sistemas de IA com aplicação eleitoral, independentemente de qualquer regulamentação específica do processo eleitoral. A abordagem europeia é mais sistêmica e de longo prazo; a brasileira é mais focada e imediata, operando sobre o processo eleitoral concreto com regras de campanha. Os dois modelos são complementares, não substitutivos, para empresas com operações em ambas as jurisdições.
Os Estados Unidos optaram por abordagem fragmentada: alguns estados aprovaram legislação específica sobre deepfakes eleitorais, mas não há norma federal abrangente. A fragmentação cria assimetrias que tornam o compliance complexo para plataformas que operam simultaneamente em múltiplas jurisdições americanas. O modelo brasileiro — uma norma nacional uniforme editada pela Justiça Eleitoral com eficácia para todo o território — oferece maior clareza regulatória, ainda que sua implementação enfrente os desafios de escala de um país continental com 155 milhões de eleitores e capacidade de fiscalização digital ainda em desenvolvimento.
A regulamentação geral da inteligência artificial no Brasil — o PL 2.338/2023 em tramitação na Câmara — classifica sistemas de IA com aplicação em processos democráticos como sistemas de alto risco, em convergência com o AI Act europeu. Se aprovado, o marco geral de IA e a regulamentação eleitoral específica do TSE formarão um sistema normativo duplo: regras permanentes de governança de IA aplicáveis em qualquer contexto, e regras específicas do processo eleitoral aplicáveis ao período de campanha. A coordenação entre esses dois níveis regulatórios será um dos desafios jurídicos relevantes dos próximos anos. Para uma visão integrada das questões de direito digital e novas tecnologias no ambiente jurídico brasileiro, acesse o hub do nosso silo temático.
Perguntas frequentes sobre inteligência artificial nas eleições de 2026
Candidatos podem usar IA na propaganda eleitoral em 2026?
Sim, mas com restrições e obrigações específicas. A Resolução TSE n.º 23.748/2026 permite o uso de IA na propaganda eleitoral fora do período de restrição, desde que todo material informe, de forma explícita e acessível, que foi produzido ou alterado por IA e qual tecnologia foi utilizada. É vedado, em qualquer período, o uso de deepfakes para prejudicar ou favorecer candidaturas. Nas 72 horas antes de cada turno e nas 24 horas após o encerramento, qualquer conteúdo novo gerado ou modificado por IA está absolutamente proibido.O que acontece se um deepfake for usado contra um candidato?
O candidato prejudicado pode apresentar representação ao Tribunal Regional Eleitoral competente para remoção imediata do conteúdo e apuração de responsabilidade. A resolução admite inversão do ônus da prova: quando a comprovação da manipulação for excessivamente onerosa, caberá ao responsável demonstrar como a tecnologia foi aplicada. As sanções podem incluir cassação do registro de candidatura do responsável ou perda de mandato, além de responsabilidade civil por danos à imagem e à honra. Para a assessoria jurídica especializada nesse tipo de caso, o tempo de reação é determinante.Quais são as sanções para quem descumprir as regras de IA do TSE?
As sanções incluem remoção imediata do conteúdo irregular; cassação do registro de candidatura; perda do mandato conquistado; responsabilidade solidária das plataformas que não removerem conteúdos ilegais após notificação. Deepfakes sexuais contra candidatas configuram também crime eleitoral e violência política de gênero nos termos da Lei n.º 14.192/2021, com responsabilidade criminal cumulada à eleitoral e civil.As plataformas digitais respondem por conteúdo eleitoral falso gerado por IA?
Sim. A Resolução TSE n.º 23.748/2026 estabelece responsabilidade solidária das plataformas que, após notificação, deixarem de remover conteúdos sintéticos ilegais de forma imediata. As plataformas estão também vedadas de usar sistemas de IA para recomendar ou priorizar candidatos e devem manter repositórios públicos com informações sobre impulsionamento pago de conteúdo político, incluindo uso de IA na produção.Como denunciar uso indevido de IA em campanha eleitoral?
O caminho mais eficaz é a representação ao Tribunal Regional Eleitoral competente, instruída com evidências do conteúdo irregular — capturas de tela com URL, data, hora e indicação de geração por IA. Em casos de deepfake sexual contra candidatas, a representação eleitoral pode ser cumulada com boletim de ocorrência por violência política de gênero nos termos da Lei n.º 14.192/2021. A assessoria jurídica especializada é recomendável dada a velocidade com que o processo eleitoral exige resposta.
Maurício Lindenmeyer Barbieri é sócio-gerente da Barbieri Advogados. Mestre em Direito Processual do Trabalho pela Universidade Federal do Rio Grande do Sul (UFRGS). Inscrito na Ordem dos Advogados da Alemanha (RAK Stuttgart n.º 50.159), de Portugal (Lisboa n.º 64.443L) e do Brasil (OAB/RS n.º 36.798 · OAB/DF · OAB/SC · OAB/PR · OAB/SP). Contador — CRC-RS n.º 106.371/O. Membro da Associação de Juristas Brasil-Alemanha (DBJV). Professor universitário.
Este artigo tem caráter exclusivamente informativo e não constitui aconselhamento jurídico. Cada situação possui particularidades que exigem análise individualizada por profissional habilitado. Para assessoria especializada, entre em contato com a Barbieri Advogados.

Maurício Lindenmeyer Barbieri é sócio da Barbieri Advogados, mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS) e inscrito na Ordem dos Advogados da Alemanha (RAK Stuttgart nº 50.159), de Portugal (Lisboa nº 64443L) e do Brasil (OAB/RS nº 36.798, OAB/DF nº 24.037, OAB/SC nº 61.179-A, OAB/PR nº 101.305 e OAB/SP nº 521.298). Possui registro de Contador sob o nº RS-106371/0 e é membro da Associação de Juristas Brasil-Alemanha.
E-mail: mauricio.barbieri@barbieriadvogados.com
