Marco Civil da Internet: STF Redefine Responsabilidade das Plataformas Digitais

07 de agosto de 2025

Compartilhe:

I. Introdução

Em decisão histórica proferida no dia 26 de junho de 2025, o Supremo Tribunal Federal redefiniu completamente o panorama da responsabilização civil das plataformas digitais no Brasil. Por maioria de votos, a Corte declarou a inconstitucionalidade parcial e progressiva do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014), estabelecendo um novo regime jurídico que equilibra a proteção da liberdade de expressão com a salvaguarda de direitos fundamentais.

A decisão, que representa um marco divisor de águas no Direito Digital brasileiro, foi tomada no julgamento conjunto dos Recursos Extraordinários nº 1.037.396 (Tema 987) e nº 1.057.258 (Tema 533), relatados respectivamente pelos ministros Dias Toffoli e Luiz Fux. Os processos analisaram casos concretos envolvendo a criação de perfis falsos no Facebook e a manutenção de comunidades ofensivas no extinto Orkut.

O entendimento da Suprema Corte reconhece um estado de omissão parcial no regime anterior, que se tornou insuficiente para conferir proteção adequada a direitos fundamentais e à democracia diante da evolução do ambiente digital e da disseminação massiva de conteúdos ilícitos.

II. A Mudança no Paradigma da Notificação

A) O Regime Anterior: Limitações do Artigo 19

Desde 2014, o artigo 19 do Marco Civil da Internet estabelecia que os provedores de aplicações só poderiam ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros após o descumprimento de ordem judicial específica de remoção. Este modelo, conhecido como “notice and takedown judicial”, criava uma proteção robusta às plataformas, mas gerava obstáculos significativos à tutela ágil de direitos violados.

Na prática, o regime anterior exigia que as vítimas de conteúdos ofensivos recorressem ao Poder Judiciário para obter a remoção de publicações ilícitas, processo que poderia levar meses ou anos, durante os quais os danos continuavam a se perpetuar e amplificar no ambiente digital.

B) O Novo Framework de Notificação: Flexibilização Equilibrada

A decisão do STF estabelece um sistema híbrido e mais nuançado, que diferencia o tratamento conforme a natureza do conteúdo ilícito:

Regra Geral: Notificação Extrajudicial Suficiente

Como regra geral, os provedores de aplicações de internet passam a estar sujeitos à responsabilização civil nos termos do artigo 21 do Marco Civil da Internet pelos danos decorrentes de conteúdos gerados por terceiros em casos de crimes ou atos ilícitos, bastando a notificação extrajudicial. Esta mudança representa uma alteração paradigmática, transferindo o ônus da judicialização das vítimas para as próprias plataformas.

Exceção Fundamental: Crimes Contra a Honra

Para os crimes contra a honra (calúnia, difamação e injúria), o STF manteve a aplicação do artigo 19, exigindo ordem judicial para a responsabilização civil das plataformas. Esta exceção busca preservar o equilíbrio entre a proteção da honra e a liberdade de expressão, reconhecendo que manifestações de opinião, mesmo quando controvertidas, integram o debate democrático.

Importante ressaltar que, mesmo nos crimes contra a honra, as plataformas mantêm a prerrogativa de remover voluntariamente conteúdos por notificação extrajudicial, quando identificarem violações às suas próprias políticas internas ou reconhecerem a ilicitude do material.

Caso Especial: Replicações Sucessivas

Uma inovação significativa da decisão estabelece que, uma vez reconhecido judicialmente o caráter ofensivo de determinado conteúdo, todos os provedores de redes sociais deverão remover publicações com conteúdos idênticos, independentemente de novas decisões judiciais, bastando notificação judicial ou extrajudicial. Esta regra visa coibir a replicação sistemática de conteúdos já declarados ilícitos.

C) Tipologia da Notificação por Categoria de Conteúdo

A tese fixada pelo STF estabelece diferentes regimes de responsabilização conforme a natureza do conteúdo:

1. Crimes contra a honra: Mantém-se a exigência de ordem judicial, com possibilidade de remoção voluntária por notificação extrajudicial.

2. Crimes e atos ilícitos em geral: Notificação extrajudicial é suficiente para responsabilização.

3. Contas denunciadas como inautênticas: Aplicam-se as mesmas regras dos crimes e atos ilícitos gerais.

4. Crimes graves (lista taxativa): Dever de remoção imediata independente de notificação.

5. Anúncios pagos e redes artificiais: Presunção de conhecimento da plataforma.

III. Impactos Práticos Imediatos

A) Para as Plataformas: Necessidade de Reestruturação Operacional

A decisão do STF impõe às plataformas digitais uma série de adaptações estruturais urgentes:

Reestruturação dos Sistemas de Moderação

As plataformas deverão implementar sistemas mais ágeis e eficientes de análise e remoção de conteúdos, capazes de processar notificações extrajudiciais de forma tempestiva. Isso demandará investimentos significativos em tecnologia e recursos humanos especializados.

Criação de Canais Específicos de Notificação

O STF determinou que as plataformas disponibilizem “canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente”. Estes canais deverão ser distintos dos sistemas gerais de suporte, garantindo tratamento prioritário às notificações de conteúdo ilícito.

implementação de Autorregulação Obrigatória

As plataformas deverão editar políticas de autorregulação que abranjam, necessariamente:

Sistema estruturado de notificações
Procedimentos de devido processo para usuários
Relatórios anuais de transparência sobre notificações extrajudiciais, anúncios e impulsionamentos
B) Para Usuários e Empresas: Maior Proteção e Agilidade

A mudança representa uma evolução significativa na proteção de direitos no ambiente digital:

Maior Agilidade na Remoção de Conteúdos Ofensivos

Vítimas de conteúdos ilícitos não precisarão mais recorrer necessariamente ao Poder Judiciário, podendo obter a remoção através de notificação direta às plataformas. Isso representa economia de tempo e recursos, além de interrupção mais rápida da propagação de danos.

Novos Instrumentos de Proteção de Direitos

A possibilidade de responsabilização civil por mera notificação extrajudicial cria um incentivo econômico para que as plataformas desenvolvam sistemas mais eficazes de moderação de conteúdo, resultando em ambiente digital mais seguro.

Redução da Judicialização

A medida tende a reduzir significativamente o número de ações judiciais relacionadas à remoção de conteúdo digital, desafogando o Poder Judiciário e proporcionando soluções mais céleres para os conflitos.

IV. Dever de Cuidado em Crimes Graves: Responsabilidade Imediata

O STF estabeleceu um regime especial de responsabilidade imediata para conteúdos que configurem crimes graves, criando um dever de cuidado especial para as plataformas. Nestes casos, os provedores devem promover a indisponibilização imediata do conteúdo, independentemente de qualquer notificação.

A lista de crimes graves é taxativa e inclui:

Condutas antidemocráticas (arts. 286, parágrafo único, 359-L a 359-R do CP)
Terrorismo e atos preparatórios (Lei nº 13.260/2016)
Indução ao suicídio e automutilação (art. 122 do CP)
Discriminação racial, religiosa e LGBTfóbica (Lei nº 7.716/89)
Crimes contra a mulher por razão de gênero (Lei Maria da Penha e correlatas)
Crimes sexuais contra vulneráveis e pornografia infantil (CP e ECA)
Tráfico de pessoas (art. 149-A do CP)
Conceito de Falha Sistêmica

A responsabilização nestes casos depende da configuração de falha sistêmica, definida como a omissão em adotar medidas adequadas de prevenção ou remoção dos conteúdos ilícitos graves. O STF esclareceu que a existência isolada de conteúdo ilícito não é suficiente para ensejar responsabilidade, sendo necessária a demonstração de negligência sistemática da plataforma.

V. Presunção de Responsabilidade: Anúncios Pagos e Automação

A decisão estabelece presunção de responsabilidade em duas hipóteses específicas onde se presume o conhecimento da plataforma sobre a ilicitude:

A) Anúncios e Impulsionamentos Pagos

Quando se tratar de conteúdo publicitário ou impulsionado mediante pagamento, presume-se que a plataforma tem conhecimento do material veiculado, dada sua intervenção ativa no processo de distribuição. Nestes casos, a responsabilização pode ocorrer independentemente de notificação, havendo responsabilidade solidária com o anunciante.

B) Redes Artificiais de Distribuição

O uso de chatbots e robôs para disseminação de conteúdo também gera presunção de responsabilidade da plataforma. Esta regra visa coibir o uso de automação para amplificar artificialmente conteúdos ilícitos.

Em ambos os casos, as plataformas podem afastar a responsabilidade comprovando que atuaram diligentemente e em tempo razoável para tornar o conteúdo indisponível.

VI. Obrigações Estruturais para Plataformas

Além das mudanças no regime de responsabilização, o STF impôs uma série de obrigações estruturais às plataformas que operam no Brasil:

Representação Legal Obrigatória

Os provedores de aplicações devem constituir e manter sede e representante no país, com identificação e informações de contato facilmente acessíveis. O representante deve ter plenos poderes para:

Responder perante esferas administrativa e judicial
Prestar informações às autoridades competentes
Cumprir determinações judiciais
Responder por penalizações e multas
Transparência e Prestação de Contas

As plataformas deverão publicar e revisar periodicamente suas regras de moderação, tornando-as transparentes e acessíveis ao público. Os relatórios anuais de transparência deverão incluir dados sobre notificações, remoções e políticas de moderação.

Canais Permanentes de Atendimento

Deverão ser disponibilizados canais específicos, preferencialmente eletrônicos, acessíveis e amplamente divulgados, tanto para usuários quanto para não usuários da plataforma.

VII. Aspectos Processuais e Garantias

Natureza Subjetiva da Responsabilidade

O STF foi expresso ao afirmar que não haverá responsabilidade objetiva na aplicação da tese fixada. Mesmo nos casos mais graves, será necessária a demonstração de conduta omissiva ou falha sistêmica por parte da plataforma.

Direito de Contraditório

A decisão preserva o direito de contraditório dos usuários cujo conteúdo for removido. Nas hipóteses de crimes graves, o responsável pela publicação poderá requerer judicialmente o restabelecimento do conteúdo, mediante demonstração da ausência de ilicitude.

Modulação Temporal

Para preservar a segurança jurídica, o STF modulou os efeitos temporais da decisão, que se aplicará apenas prospectivamente, ressalvadas as decisões já transitadas em julgado. Isso significa que as novas regras não retroagem para casos anteriores à data do julgamento.

VIII. Regimes Especiais de Aplicação

Serviços de Comunicação Privada

O STF manteve a aplicação do artigo 19 para:

Provedores de e-mail
Aplicações de reuniões fechadas por vídeo ou voz
Serviços de mensageria instantânea (exclusivamente para comunicações interpessoais protegidas pelo sigilo constitucional)
Esta distinção reconhece a natureza diferenciada destes serviços, que funcionam como meios de comunicação privada protegidos pelo sigilo constitucional.

Marketplaces

Para plataformas que funcionam como marketplaces, aplicam-se as regras específicas do Código de Defesa do Consumidor, mantendo-se o regime já consolidado para relações de consumo online.

Imprensa Digital

A decisão ressalva que blogs jornalísticos e veículos de imprensa digital respondem exclusivamente pela Lei do Direito de Resposta (Lei nº 13.188/2015), já declarada constitucional pelo STF, preservando-se assim a liberdade de imprensa.

IX. Conclusão e Recomendações

A decisão do Supremo Tribunal Federal altera substancialmente o regime de responsabilização das plataformas digitais no Brasil, estabelecendo diferentes graus de exigência conforme a natureza do conteúdo. A nova sistemática de responsabilização cria obrigações específicas para as plataformas e modifica os procedimentos para remoção de conteúdo online.

Recomendações Práticas

Para as Plataformas:

Iniciar imediatamente a adequação dos sistemas de moderação
Implementar canais específicos de notificação
Desenvolver políticas claras de autorregulação
Estabelecer representação legal no Brasil
Capacitar equipes para o novo regime de responsabilização
Para Usuários e Empresas:

Familiarizar-se com os novos procedimentos de notificação
Compreender as diferentes hipóteses de responsabilização
Manter documentação adequada para eventual responsabilização das plataformas
Considerar orientação jurídica para casos complexos
A implementação das novas regras exigirá adaptação tanto por parte das plataformas quanto dos usuários, sendo recomendável o acompanhamento das evoluções jurisprudenciais que decorrerão da aplicação prática da tese fixada pelo STF.