Deepfake: o que é, como funciona e as implicações jurídicas no Brasil
Deepfake deixou de ser um termo técnico restrito a pesquisadores de inteligência artificial para se tornar uma das questões jurídicas mais urgentes do tempo presente. Em março de 2026, o Tribunal Superior Eleitoral aprovou, por unanimidade, a Resolução n.º 23.748 — o marco regulatório mais abrangente do mundo sobre uso de inteligência artificial em eleições, com regras específicas sobre deepfakes em campanhas. Em junho de 2025, a 35ª Vara Cível de São Paulo concedeu tutela de urgência no processo que ficou conhecido como o caso Drauzio Varella, determinando a remoção de vídeos fabricados com IA que simulavam a voz e a imagem do médico para vender produtos fraudulentos. Em fevereiro de 2026, a Meta ajuizou ação contra operadores brasileiros que mantinham uma plataforma ensinando a criar deepfakes de figuras públicas para fins comerciais ilícitos. O fenômeno chegou aos tribunais brasileiros — e com ele, a necessidade urgente de compreender seus fundamentos tecnológicos, suas consequências jurídicas e os instrumentos de proteção disponíveis.
O que é deepfake: conceito e fundamentos tecnológicos
Deepfake é conteúdo audiovisual — vídeo, áudio ou imagem — gerado ou manipulado por inteligência artificial de forma a simular, com alto grau de realismo, a aparência, a voz ou o comportamento de uma pessoa real sem o seu consentimento. O termo combina “deep learning” — aprendizado profundo, a técnica de inteligência artificial subjacente — e “fake”, falso. O resultado é um conteúdo que aparenta ser autêntico mas foi inteiramente fabricado ou substancialmente alterado por sistemas computacionais.
Na acepção técnica original, o deepfake clássico utiliza redes generativas adversariais — GANs, do inglês Generative Adversarial Networks — para substituir o rosto de uma pessoa pelo de outra em um vídeo existente. O sistema funciona com dois componentes em competição permanente: um gerador, que produz imagens falsas cada vez mais convincentes, e um discriminador, que tenta identificar o que é falso. A competição entre os dois, ao longo de milhares de iterações de treinamento, produz resultados progressivamente mais difíceis de distinguir do material original. A clonagem de voz opera por mecanismo análogo: com poucos minutos de áudio real, sistemas de IA conseguem reproduzir a voz de qualquer pessoa com fidelidade suficiente para enganar ouvintes humanos.
A importância dessa definição técnica para o direito é direta: o regulador não pode proibir eficazmente o que não consegue definir com precisão operacional. A distinção entre um deepfake e uma montagem fotográfica convencional, entre uma voz clonada por IA e uma imitação humana, entre conteúdo sintético e conteúdo editado, determina a aplicabilidade das normas existentes — e é precisamente essa imprecisão que o TSE enfrentou ao construir a Resolução n.º 23.748/2026, optando pela expressão mais ampla “conteúdo sintético gerado ou modificado por inteligência artificial ou tecnologia equivalente” em vez de se restringir ao termo técnico deepfake.
A evolução tecnológica: de deepfake clássico a IA generativa
O deepfake de 2026 é tecnologicamente distinto do deepfake de 2019. A evolução não é apenas quantitativa — mais realismo, menor custo, maior acessibilidade — mas qualitativa: a natureza do problema jurídico mudou. O deepfake clássico exigia um vídeo base da pessoa retratada, processamento computacional significativo e algum nível de habilidade técnica. As ferramentas de IA generativa atuais — sistemas de texto-para-vídeo, texto-para-imagem e clonagem de voz — podem criar conteúdo inteiramente novo sem qualquer material original da pessoa retratada, a partir de uma simples instrução em linguagem natural, em questão de segundos, com custo praticamente zero.
Os números ilustram a escala do fenômeno. Os arquivos de deepfake identificados globalmente saltaram de aproximadamente 500 mil em 2023 para cerca de 8 milhões em 2025 — crescimento de 1.500% em dois anos. Mais revelador ainda é o dado sobre detecção humana: seres humanos identificam corretamente deepfakes de alta qualidade em apenas 24,5% das vezes, o que significa que a capacidade de percepção humana foi amplamente superada pela capacidade de geração artificial. No Brasil, entre dezembro de 2025 e fevereiro de 2026, dois em cada três conteúdos políticos gerados por IA circularam nas redes sem qualquer sinalização de sua natureza sintética — crescimento de 50% em relação ao ano anterior, segundo levantamento do Observatório IA nas Eleições.
Essa evolução tecnológica tem consequências jurídicas diretas. A distinção que o TSE precisou construir em sua regulamentação — entre o deepfake clássico que manipula um vídeo existente e a IA generativa que cria conteúdo inteiramente novo — não estava contemplada nas normas de 2024. A ABRADEP identificou o problema em estudo apresentado em outubro de 2025 e encaminhou contribuições ao TSE, que as incorporou na Resolução n.º 23.748/2026. O direito, uma vez mais, correu atrás da tecnologia — mas dessa vez em velocidade inédita.
Deepfake nas eleições de 2026: a Resolução TSE n.º 23.748/2026
O Tribunal Superior Eleitoral aprovou, nas sessões administrativas de 26 de fevereiro e 2 de março de 2026, um conjunto de resoluções destinadas a disciplinar as Eleições Gerais de outubro de 2026. Entre elas, a Resolução n.º 23.748, de 4 de março de 2026 — que modificou a Resolução TSE n.º 23.610/2019 sobre propaganda eleitoral —, sob relatoria do ministro Nunes Marques, aprovada por unanimidade, é o instrumento mais abrangente já editado no mundo sobre o uso de inteligência artificial em eleições. Suas regras têm eficácia imediata e alcançam os pleitos de escolha de Presidente da República, Governadores, Senadores e Deputados.
A resolução estrutura-se em torno de cinco eixos. O primeiro e de maior impacto prático é a restrição temporal: fica proibida a publicação, republicação ou o impulsionamento de novos conteúdos produzidos ou alterados por inteligência artificial nas 72 horas anteriores a cada turno de votação e nas 24 horas posteriores ao encerramento. A restrição incide especificamente sobre alterações de voz e imagem de candidatos e figuras públicas. A racionalidade é precisa: nas horas imediatamente anteriores à votação, o tempo de resposta para desmentir uma falsidade é insuficiente — o chamado efeito calúnia de véspera, já consagrado na jurisprudência eleitoral, fundamenta a medida.
O segundo eixo é a obrigação de rotulagem. Todo material de campanha que utilize inteligência artificial para criar, substituir, omitir, mesclar ou alterar imagens e sons deve informar, de forma explícita, destacada e acessível, que o conteúdo foi produzido ou alterado por IA, com indicação da tecnologia utilizada. A mesma lógica se aplica a chatbots e avatares: o eleitor deve ser informado quando estiver interagindo com sistemas automatizados. Propagandas que descumprirem a obrigação podem ser retiradas do ar por iniciativa das plataformas ou por determinação judicial.
O terceiro eixo veda que provedores de inteligência artificial permitam, mesmo mediante solicitação expressa de usuários, que seus sistemas recomendem, ranqueiem, sugiram ou priorizem candidatos, campanhas, partidos políticos, federações ou coligações — proibindo qualquer forma de favorecimento ou desfavorecimento político-eleitoral direto ou indireto por algoritmos.
O quarto eixo — de relevância especial — proíbe deepfakes de natureza sexual contra candidatas. A produção de montagens com conteúdo de nudez ou conotação sexual envolvendo candidatas configura, simultaneamente, crime eleitoral, violência política de gênero nos termos da Lei n.º 14.192/2021 e ilícito civil indenizável. A sanção pode incluir cassação do registro de candidatura ou do mandato já conquistado.
O quinto eixo estabelece a responsabilidade solidária das plataformas digitais que, após notificação, deixarem de remover conteúdos sintéticos ilegais de forma imediata. A resolução inova ao admitir ainda a inversão do ônus da prova em processos que discutam manipulação digital: quando a comprovação da irregularidade se mostrar excessivamente onerosa para o autor da ação, caberá ao responsável demonstrar como a tecnologia foi aplicada e comprovar a veracidade da informação divulgada.
A perspectiva comparada reforça a singularidade do modelo brasileiro. O Regulamento (UE) 2024/1689 — AI Act — classificou os sistemas de IA destinados a influenciar eleições como de “alto risco”, submetendo-os a obrigações reforçadas de transparência e supervisão humana. Os Estados Unidos optaram por regulamentação fragmentada entre estados, sem norma federal abrangente. O Brasil destaca-se por adotar, no âmbito eleitoral, um dos marcos regulatórios mais específicos e temporalmente delimitados do mundo — combinando vedações absolutas no período crítico, regime de responsabilidade das plataformas e proteção reforçada contra violência de gênero digital. Para uma análise aprofundada do contexto regulatório mais amplo, veja nosso artigo sobre a regulamentação da inteligência artificial no Brasil.
Responsabilidade civil por deepfake: o caso Drauzio Varella e os precedentes brasileiros
O direito civil brasileiro já tem respostas disponíveis para os danos causados por deepfakes — mesmo na ausência de lei específica. O arcabouço normativo existente é suficiente para fundamentar ações de responsabilidade, e o Judiciário brasileiro tem demonstrado disposição para aplicá-lo com celeridade.
O caso mais relevante até o momento é o do médico Drauzio Varella. Operadores mantinham uma plataforma — a Britesflix — ensinando, mediante pagamento de mil reais, técnicas de criação de deepfakes de figuras públicas para uso em propagandas fraudulentas. Os vídeos simulavam a voz e a imagem do médico para promover produtos de saúde sem comprovação científica e sem aprovação da Anvisa — como o denominado Detox Oriental — e cursos online. A 35ª Vara Cível do Tribunal de Justiça de São Paulo, no Processo n.º 1078499-98.2025.8.26.0100, concedeu tutela de urgência em junho de 2025, sob relatoria do juiz Gustavo Henrique Bretas Marzagão, determinando a remoção imediata de todos os conteúdos e fixando multa diária de R$ 50.000 pelo descumprimento. Em fevereiro de 2026, a Meta ajuizou ação autônoma contra os mesmos operadores — Daniel de Brites Macieira Cordeiro e José Victor de Brites Chaves de Araújo, da empresa Brites Corporation —, ampliando a frente litigiosa.
Os fundamentos jurídicos utilizados nesse e em casos análogos são o artigo 5.º, inciso X, da Constituição Federal, que assegura a inviolabilidade da imagem, da honra e da vida privada; os artigos 186 e 927 do Código Civil, que estabelecem a responsabilidade civil por dano causado a outrem; e o artigo 20 do Código Civil, que protege especificamente a imagem da pessoa natural. O Marco Civil da Internet — Lei n.º 12.965/2014 — fundamenta a responsabilidade solidária das plataformas que, notificadas, deixam de remover conteúdo ilícito de forma imediata.
A tutela de urgência é o instrumento processual mais eficaz nessa categoria de casos: a natureza continuada do dano — o conteúdo continua circulando enquanto não é removido — justifica a concessão liminar sem oitiva da parte contrária, e os tribunais brasileiros têm sido receptivos a esses pedidos quando instruídos com evidência técnica adequada. A quantificação do dano moral e material em casos de deepfake ainda carece de parâmetros consolidados na jurisprudência brasileira, mas a gravidade do dano à imagem, à reputação profissional e aos riscos à saúde pública decorrentes de deepfakes médicos fraudulentos tendem a fundamentar indenizações expressivas.
Deepfake como crime no Brasil: tipificação atual e lacunas
A tipificação penal de condutas envolvendo deepfakes no Brasil é parcial e assistemática — reflexo da velocidade com que a tecnologia superou a capacidade de resposta legislativa. Existem tipos penais aplicáveis a condutas específicas, mas não há crime autônomo de criação ou divulgação de deepfake.
A Lei n.º 13.718/2018, que alterou o Código Penal para tipificar os crimes contra a dignidade sexual praticados por meios eletrônicos, é a norma mais diretamente aplicável aos deepfakes de conteúdo sexual. O artigo 218-C do Código Penal pune com reclusão de 1 a 5 anos quem divulga, sem consentimento da vítima, cena de nudez ou ato sexual de caráter íntimo — e a jurisprudência já reconhece a aplicabilidade da norma a conteúdo fabricado por IA, não apenas a registros reais. A pena é aumentada de um terço a dois terços se a conduta é praticada por agente que manteve relação íntima com a vítima ou com o fim de obter vantagem econômica.
A Lei n.º 14.811/2024 ampliou a proteção para crianças e adolescentes, estabelecendo regime mais rigoroso para deepfakes sexuais que envolvam menores. O Estatuto da Criança e do Adolescente já previa punição para produção e divulgação de material sexual infantil, e a nova lei aperfeiçoou esse regime para contemplar especificamente o conteúdo gerado por inteligência artificial.
Fora do campo sexual, os deepfakes que imputam falsamente fatos determinados a alguém podem configurar calúnia (art. 138, CP) ou difamação (art. 139, CP). Os deepfakes utilizados como instrumento de fraude ou estelionato encontram tipificação no artigo 171 do Código Penal — e a pena pode ser aumentada quando o meio utilizado é sofisticado ou quando há pluralidade de vítimas. No contexto eleitoral, a Resolução TSE n.º 23.748/2026 prevê a cassação do registro de candidatura ou do mandato como sanção específica.
As lacunas são, contudo, significativas. Deepfakes criados para denegrir a reputação de pessoa pública sem imputar fato específico podem não se enquadrar nos tipos de calúnia ou difamação. Deepfakes utilizados em negociações comerciais fraudulentas — como videoconferências falsas com executivos para autorizar transferências bancárias, modalidade já registrada internacionalmente — encontram enquadramento penal precário na legislação atual. O PL n.º 1.884/2025, em tramitação, propõe regulamentação específica para deepfakes, exigindo identificação por metadados ou marcas d’água e prevendo responsabilização de plataformas que ofereçam ferramentas de criação sem mecanismos de transparência — mas ainda aguarda aprovação. Para uma análise dos crimes digitais em contexto empresarial, veja nosso silo de direito penal empresarial.
Como proteger sua imagem e sua empresa contra deepfakes
A proteção jurídica contra deepfakes opera em dois planos: o preventivo e o reativo. Ambos são necessários, mas a experiência dos casos brasileiros demonstra que a resposta preventiva é consideravelmente mais eficaz do que a reparatória — uma vez que o conteúdo falso circula, o dano à reputação é de difícil reversão mesmo após a remoção.
No plano preventivo, o instrumento mais relevante é o monitoramento ativo da imagem digital. Figuras públicas, executivos de empresas e qualquer pessoa com presença digital relevante devem implementar sistemas de alerta para menções de seu nome e aparecimento de sua imagem em plataformas digitais — serviços automatizados permitem esse monitoramento a custo acessível. O registro preventivo da imagem e da voz — documentando o conteúdo autêntico existente e a ausência de autorização para uso sintético — pode ser relevante como evidência em processos posteriores. A LGPD classifica dados biométricos — incluindo características de voz e imagem — como dados pessoais sensíveis sujeitos a regime de proteção reforçado, o que fundamenta a exigência de consentimento explícito para seu uso em sistemas de IA.
No plano reativo, a tutela de urgência é o instrumento processual preferencial. O pedido deve ser instruído com evidência técnica da manipulação — laudo pericial ou declaração de especialista identificando os indicadores técnicos de geração artificial — e com documentação do dano em curso. A notificação extrajudicial prévia à plataforma, com registro de data e conteúdo, é essencial para caracterizar a responsabilidade solidária do provedor em caso de não remoção imediata. No contexto de campanhas eleitorais, a representação ao Tribunal Regional Eleitoral competente tem a vantagem da rapidez processual específica do rito eleitoral.
Para empresas, o deepfake representa um risco de compliance crescente. Videoconferências fraudulentas simulando executivos para autorizar transferências bancárias ou comunicar decisões estratégicas são uma modalidade de ataque já registrada internacionalmente — e para a qual os procedimentos internos de verificação precisam ser adaptados. A autenticação multifatorial de identidade em comunicações sensíveis, a exigência de confirmação por canal independente para ordens financeiras relevantes e o treinamento de equipes para reconhecer sinais de manipulação digital são medidas de compliance que o ambiente regulatório atual já justifica. A proteção de dados pessoais dos colaboradores e clientes — incluindo dados biométricos utilizados em sistemas de identificação — integra esse mesmo programa de governança digital.
A convergência entre deepfakes, inteligência artificial e tecnologia blockchain abre também uma perspectiva técnica de proteção: o registro em blockchain de conteúdo audiovisual autêntico — com hash criptográfico e marca temporal imutável — pode funcionar como prova de autenticidade contra alegações de falsificação. Alguns sistemas de certificação digital já incorporam essa funcionalidade, e é provável que se torne padrão para produtoras de conteúdo e figuras públicas com os anos. Para uma análise integrada das questões regulatórias emergentes no campo do direito digital e das novas tecnologias, acesse o hub do nosso silo temático.
Perguntas frequentes sobre deepfake
O que é deepfake?
Deepfake é conteúdo audiovisual gerado ou manipulado por inteligência artificial de forma a simular, com alto grau de realismo, a aparência, a voz ou o comportamento de uma pessoa real sem o seu consentimento. O termo combina “deep learning” e “fake”. Na tecnologia original, utilizava redes generativas adversariais (GANs) para substituição de rosto em vídeos. A IA generativa atual vai além: cria conteúdo inteiramente novo sem qualquer material original da pessoa retratada, a partir de instruções em linguagem natural.Deepfake é crime no Brasil?
Depende do contexto. Deepfakes de conteúdo sexual sem consentimento configuram crime previsto na Lei n.º 13.718/2018, com pena de 1 a 5 anos. Deepfakes sexuais envolvendo menores são tipificados com maior rigor pela Lei n.º 14.811/2024. No âmbito eleitoral, a Resolução TSE n.º 23.748/2026 prevê cassação de registro ou mandato. Deepfakes utilizados em fraudes encontram tipificação no artigo 171 do Código Penal. O Brasil ainda não possui lei geral específica sobre deepfakes — o PL n.º 1.884/2025 tramita com esse objeto.O que o TSE regulamentou sobre deepfake nas eleições de 2026?
A Resolução TSE n.º 23.748, de 4 de março de 2026, aprovada por unanimidade sob relatoria do ministro Nunes Marques, estabeleceu: proibição de conteúdo gerado por IA nas 72h antes e 24h após a votação; obrigação de rotulagem de todo conteúdo de campanha que use IA; vedação de recomendação eleitoral por sistemas de IA; proibição de deepfakes sexuais contra candidatas como crime eleitoral e ilícito civil; e responsabilidade solidária das plataformas que não removerem conteúdo irregular após notificação.Quem responde civilmente por um deepfake no Brasil?
O criador responde com fundamento nos artigos 186 e 927 do Código Civil e no artigo 5.º, X, da Constituição. O disseminador responde solidariamente quando tem ciência do caráter ilícito. As plataformas respondem solidariamente quando, notificadas, deixam de remover o conteúdo imediatamente, nos termos do Marco Civil da Internet. O precedente mais relevante no Brasil é o caso Drauzio Varella — Processo n.º 1078499-98.2025.8.26.0100, 35ª Vara Cível de São Paulo, junho de 2025, com multa diária de R$ 50 mil fixada pelo juiz Gustavo Henrique Bretas Marzagão.Como denunciar um deepfake no Brasil?
As vias principais são: notificação extrajudicial à plataforma com pedido de remoção imediata; boletim de ocorrência em delegacia de crimes cibernéticos; ação judicial com pedido de tutela de urgência para remoção cautelar, fundamentada no direito à imagem (art. 5.º, X, CF) e nos artigos 186 e 927 do Código Civil; e, no contexto eleitoral, representação ao Tribunal Regional Eleitoral competente sob a Resolução TSE n.º 23.748/2026.
Maurício Lindenmeyer Barbieri é sócio-gerente da Barbieri Advogados. Mestre em Direito Processual do Trabalho pela Universidade Federal do Rio Grande do Sul (UFRGS). Inscrito na Ordem dos Advogados da Alemanha (RAK Stuttgart n.º 50.159), de Portugal (Lisboa n.º 64.443L) e do Brasil (OAB/RS n.º 36.798 · OAB/DF · OAB/SC · OAB/PR · OAB/SP). Contador — CRC-RS n.º 106.371/O. Membro da Associação de Juristas Brasil-Alemanha (DBJV). Professor universitário.
Este artigo tem caráter exclusivamente informativo e não constitui aconselhamento jurídico. Cada situação possui particularidades que exigem análise individualizada por profissional habilitado. Para assessoria especializada, entre em contato com a Barbieri Advogados.

Maurício Lindenmeyer Barbieri é sócio da Barbieri Advogados, mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS) e inscrito na Ordem dos Advogados da Alemanha (RAK Stuttgart nº 50.159), de Portugal (Lisboa nº 64443L) e do Brasil (OAB/RS nº 36.798, OAB/DF nº 24.037, OAB/SC nº 61.179-A, OAB/PR nº 101.305 e OAB/SP nº 521.298). Possui registro de Contador sob o nº RS-106371/0 e é membro da Associação de Juristas Brasil-Alemanha.
E-mail: mauricio.barbieri@barbieriadvogados.com
