Comunicados -
11/07/25Fernando Galucci
Em uma decisão de ampla repercussão, o Supremo Tribunal Federal (STF) concluiu em 26.06.2025 o julgamento que redefiniu a responsabilidade civil das plataformas digitais por conteúdos gerados por terceiros, declarando a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet (Lei nº 12.965/2014). Por um placar de 8 a 3, a maioria dos ministros entendeu que a regra, que condicionava a responsabilização dos provedores a uma ordem judicial específica para a remoção de conteúdo, teria se tornado insuficiente para combater a disseminação de desinformação e atividades criminosas online.
A decisão, proferida no âmbito de dois recursos extraordinários com repercussão geral reconhecida (RE nº 1.037.396, Tema 987 e RE nº 1.057.258, Tema 533), estabelece um novo paradigma para a moderação de conteúdo no Brasil, flexibilizando a necessidade de intervenção judicial para a retirada de publicações em casos de crimes graves.
O art. 19 do Marco Civil da Internet determinava que:
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
Essa regra protegia as plataformas de processos judiciais por postagens de seus usuários, a menos que descumprissem uma decisão da Justiça. A regra também visava impedir uma espécie de “censura privada”, na qual uma simples notificação de um usuário ou empresa que se sentisse ofendido levasse uma plataforma a remover conteúdo para evitar litígios, silenciando críticas e removendo conteúdos legítimos de forma arbitrária, delegando o papel de árbitro do discurso às próprias plataformas.
I. A nova sistemática do art. 19 estabelecida pelo STF
A maioria dos ministros acompanhou o voto do presidente da Corte, Min. Luís Roberto Barroso, que propôs uma tese fixando diferentes regimes de responsabilidade para as plataformas. A decisão estabelece o chamado “dever de cuidado” para as empresas de tecnologia, que deverão ser proativas na remoção de conteúdos ilícitos.
A nova sistemática possui a seguinte forma:
a) Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves: trata-se da parte mais “dura” do aumento da responsabilização promovido pelo STF. Para uma lista taxativa de crimes considerados graves, as plataformas têm o dever proativo de remoção do conteúdo mesmo sem notificação prévia; se não agir de modo diligente, poderá ser responsabilizada civilmente. A referida lista inclui condutas e atos antidemocráticos, terrorismo, incitação ao suicídio, crimes de ódio e discriminação, crimes contra a mulher, crimes sexuais contra vulneráveis (como a pornografia infantil) e tráfico de pessoas.
O STF considerou que a configuração da responsabilização das plataformas nesse quesito está condicionada à “falha sistêmica”, que ocorre somente quando o provedor “deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa”. Ainda, o STF entendeu que “a existência de conteúdo ilícito de forma isolada, atomizada, não é, por si só, suficiente para ensejar a aplicação da responsabilidade civil do presente item”. Dessa forma, não basta a presença de um único conteúdo ilícito de forma isolada para que a responsabilidade se configure. Foi mantida, contudo, a responsabilidade prevista do art. 21 do Marco Civil, que determina a responsabilização subsidiária da plataforma pela divulgação não autorizada de imagens, vídeos ou outros materiais contendo nudez ou atos sexuais de caráter privado, quando, após notificação pelo participante ou seu representante, não forem tomadas as providências para indisponibilizar o conteúdo.
b) Presunção de responsabilidade no caso de conteúdos ilícitos pagos: ficou estabelecida a presunção de responsabilidade das plataformas em caso de conteúdos ilícitos quando se tratar de anúncios e impulsionamentos pagos e rede artificial de distribuição (chatbot ou robôs).
A decisão estabeleceu que, nessas hipóteses, a responsabilização poderá se dar independentemente de notificação, sendo que os provedores ficarão excluídos de responsabilidade se “comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo”.
Nesses casos, a plataforma é considerada responsável desde o início e, em consequência, o ônus da prova é invertido: ela só se isenta de responsabilidade se comprovar que agiu “diligentemente e em tempo razoável” para remover o conteúdo.
c) Crimes contra a honra: para os crimes contra a honra (calúnia, injúria e difamação), a regra geral do Marco Civil contida no art. 19 continua a valer. Ou seja, a responsabilidade da plataforma só ocorrerá se houver descumprimento de uma ordem judicial específica para a remoção do conteúdo. A manutenção dessa exigência busca proteger a liberdade de expressão e evitar que as plataformas removam excessivamente conteúdos que estão em uma “zona cinzenta”.
d) Replicação de conteúdo já considerado ilegal: se um conteúdo já foi declarado ilegal por decisão judicial, as plataformas terão o dever de remover reproduções idênticas a partir de simples notificação, sem a necessidade de uma nova decisão judicial para cada postagem.
e) Comunicações privadas: o STF manteve a regra geral neste caso, estabelecendo que “aplica-se o art. 19 do MCI ao (a) provedor de serviços de e-mail; (b) provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz; (c) provedor de serviços de mensageria instantânea (também chamadas de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88)”.
f) Marketplaces: a decisão estabeleceu que “os provedores de aplicações de internet que funcionarem como marketplaces respondem civilmente de acordo com o Código de Defesa do Consumidor (Lei nº 8.078/90)”.
II. Outros deveres impostos aos provedores
Inspirando-se fortemente na Lei de Serviços Digitais (DSA) da União Europeia, o STF impôs às plataformas uma série de deveres processuais e de governança, como a obrigação de criar uma autorregulação com regras claras de moderação, publicar relatórios anuais de transparência, manter canais de atendimento acessíveis e, crucialmente, constituir e manter um representante legal no Brasil com plenos poderes para responder judicial e administrativamente.
III. Consequências da decisão
A decisão do STF tem implicações profundas e imediatas para usuários, plataformas e para o debate público no Brasil.
As empresas de tecnologia serão obrigadas a investir pesadamente em equipes jurídicas, tecnologia de moderação e estruturas de compliance para se adequarem ao novo e multifacetado regime de responsabilidade. A decisão aumenta a insegurança jurídica para o setor, que agora terá que interpretar notificações extrajudiciais e avaliar a legalidade de conteúdos sob o risco de serem responsabilizadas.
Uma crítica feita à decisão está no fato dela não fazer distinção entre as gigantes de tecnologia (as big techs) e empresas menores do setor, como muitas startups, sendo que as primeiras possuem recursos incomparavelmente superiores para se adaptar às mudanças. Há uma possibilidade de aumento da concentração econômica no setor, dificultando as atividades de empresas mais novas e de menor porte.
Vítimas de discursos de ódio e outros crimes graves terão um caminho mais rápido para a remoção de conteúdos, sem a necessidade de aguardar um longo processo judicial. Por outro lado, há o temor de que a maior rigidez na moderação possa levar à remoção indevida de críticas, sátiras e opiniões legítimas.
A decisão também acirra o debate sobre os limites da liberdade de expressão no ambiente digital. Enquanto uns a veem como uma ferramenta essencial para combater a desinformação e o discurso de ódio, outros a consideram um retrocesso que pode levar à censura e ao cerceamento do debate público pelas grandes empresas de tecnologia.
O STF modulou a decisão para produzir efeitos apenas sobre fatos ocorridos após 26.06.2025, data do julgamento, preservando processos já transitados em julgado.
As regras definidas pelo STF irão moldar o ambiente digital no Brasil até que o Legislativo eventualmente aprove uma legislação sobre o tema, como o PL 2630/20 (PL das Fake News), que tramita há anos sem consenso.
A equipe de especialistas do Nasser Advogados está à disposição para auxílio e dúvidas.
Cadastre-se e receba nossos comunicados: