A responsabilidade civil dos provedores tem sido tem de muita polêmica desde a promulgação da Lei 12.965 (Marco Civil da Internet), em 23 de abril de 2014.
Argumentam alguns que as disposições, sobretudo do art. 19 do Marco Civil, são inconstitucionais.
O tema chegou até o Supremo Tribunal Federal (STF), por meio do Recurso Extraordinário 1037396, em que se discute, à luz dos arts. 5º, incs. II, IV, IX, XIV e XXXVI, e 220, caput, §§ 1º e 2º, da Constituição Federal, a constitucionalidade do referido artigo, que impõe condição para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos de terceiros:
Tema 987 – Discussão sobre a constitucionalidade do art. 19 da Lei n. 12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros.
Após muita discussão, o Supremo decidiu em junho de 2025 que o art. 19 é parcialmente inconstitucional, estabelecendo regras para a responsabilização civil dos provedores de aplicação.
Para compreender melhor o tema da responsabilidade civil dos provedores, veremos em detalhes neste artigo:
Vamos começar tratando de um ponto relativamente pacífico, que é a responsabilidade civil dos provedores de conexão.
A (falta de) responsabilidade civil dos provedores de conexão
O art. 18 do Marco Civil da Internet dispõe que os provedores de conexão à internet não serão responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros.
Provedor de conexão é como o Marco Civil chama as empresas que oferecem serviços de acesso à internet, como por exemplo as operadoras de telefonia (Claro, TIM, Vivo etc.).
Assim, se uma pessoa acessa a internet por meio de uma dessas empresas e gera um conteúdo que causa danos a alguém, o provedor de conexão não pode ser responsabilizado civilmente por tais danos.
Lembrando que, conforme destacamos em artigo próprio, esses provedores precisam manter a guarda de registros de conexão pelo prazo de um ano, para fins de possíveis investigações de ilícitos.
A responsabilidade civil dos provedores de aplicações de internet
No modelo originalmente adotado pelo Marco Civil da Internet, a palavra final sobre remoção de conteúdo na internet era do Poder Judiciário.
Pela letra da lei, os provedores de aplicações de internet (sites, redes sociais, e-commerces e outros aplicativos) não poderiam em regra ser responsabilizados por conteúdo de terceiros se não descumprissem uma decisão judicial de remoção.
Assim, esses empresas adotariam suas próprias regras e operações de moderação de conteúdo, mas não seriam obrigadas a indenizar por não atenderem a demanda extrajudicial de um usuário.
De acordo com a redação original e literal do art. 19 do Marco Civil da Internet, a regra é que o provedor de aplicações de internet não seria responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros.
A responsabilidade civil dos provedores de aplicações só ocorreria se, após ordem judicial específica, o provedor não tomasse as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.
A exceção, disposta no art. 21, era apenas em caso de pornografia de vingança, pornografia infantil ou qualquer outro tipo de divulgação de de imagens, de vídeos ou de outros materiais contendo cenas de nudez ou de atos sexuais de caráter privado quando sem autorização dos participantes.
Nesses casos excepcionais, o conteúdo pornográfico não consentido deveria ser removido após o recebimento de notificação pelo participante ou seu representante legal, mesmo sem ordem judicial.
A Responsabilidade Civil dos Provedores de Aplicações por Danos Decorrentes de Conteúdo Gerado por Terceiros
O art. 19 do Marco Civil começa com uma redação não usual, uma espécie de “considerando”, anunciando que tem o intuito de assegurar a liberdade de expressão e impedir a censura.
Assim, como regra, um site ou rede social não poderia ser responsabilizado se um terceiro vai lá e gera algum conteúdo que cause danos a terceiros.
Pela redação original, se o terceiro lesado pedisse extrajudicialmente que o provedor de aplicações remova esse conteúdo, o provedor não estaria obrigado a remover. Mas, se quisesse, o provedor poderia remover. Bastaria, por exemplo, que a publicação não estivesse em conformidade com as regras de uso da plataforma.
Não havendo a remoção pelo pedido extrajudicial, o lesado precisaria pedir a remoção ao Poder Judiciário, que, se entendesse adequado, emitiria uma ordem judicial para a exclusão do conteúdo.
Tal ordem precisaria conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, permitindo a localização inequívoca do material.
Caso o provedor de aplicações não removesse o conteúdo mesmo após a ordem judicial, aí sim ele poderia ser responsabilizado civilmente pelos danos decorrentes de conteúdo gerado por terceiros.
O dever de informar sobre a remoção de conteúdo
Quando realizar uma remoção de conteúdo, o provedor de aplicações deve comunicar ao autor os motivos e informações relativos à indisponibilização de conteúdo, com informações que permitam o contraditório e a ampla defesa em juízo, salvo expressa previsão legal ou expressa determinação judicial fundamentada em contrário.
Segundo o art. 20 do Marco Civil, essa comunicação deve ser feita sempre que o provedor de aplicações tiver informações de contato do usuário diretamente responsável pelo conteúdo.
Quando solicitado pelo usuário que disponibilizou o conteúdo removido, o provedor de aplicações substituirá o conteúdo tornado indisponível pela motivação ou pela ordem judicial que deu fundamento à indisponibilização.
Esta última disposição, assim como acontece na guarda de registros de acesso a aplicações, só é obrigatória para os provedores de aplicações de internet que exerçam essa atividade de forma organizada, profissionalmente e com fins econômicos.
A responsabilidade civil dos provedores de aplicações por violação a direitos autorais
O parágrafo 2º do art. 19 do Marco Civil dispõe que responsabilidade civil dos provedores de aplicações por danos decorrentes de conteúdo gerado por terceiros, no caso de infrações a direitos de autor ou a direitos conexos, depende de previsão legal específica.
Tal previsão deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal.
A apresentação de causas de responsabilidade civil dos provedores de aplicações perante os Juizados Especiais
As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
Como se sabe, nos termos da Lei 9.099/1995, os juizados especiais orientam seus processos pelos critérios da oralidade, simplicidade, informalidade, economia processual e celeridade, buscando, sempre que possível, a conciliação ou a transação.
Os juizados especiais foram criados para causas de menor complexidade. A previsão do Marco Civil, portanto, parece não ter levado em consideração o tamanho do problema que a remoção de conteúdo se tornaria com o passar do tempo.
Não por acaso, o Recurso Extraordinário que levou o tema à discussão no STF originou-se de uma ação ajuizada perante um Juizado Especial Cível no interior de São Paulo.
Antecipação de tutela nos pedidos de remoção de conteúdo
Quando um conteúdo é publicado na internet causando danos a terceiros, quanto mais tempo ele ficar no ar, possivelmente mais danos irá causar.
Pensando nisso, o Marco Civil da Internet previu a possibilidade de o juiz antecipar total ou parcialmente, os efeitos da tutela pretendida no pedido de remoção de conteúdo.
Para isso, é necessário existir prova inequívoca do fato e deve ser considerado o interesse da coletividade na disponibilização do conteúdo na internet.
Para a antecipação de tutela, também precisam estar presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação.
Por fim, vale ressaltar que a antecipação de tutela é possível inclusive nos casos apresentados perante os juizados especiais, conforme disposição expressa do § 4º do art. 19 do Marco Civil da Internet.
A discussão sobre a constitucionalidade do artigo 19 do Marco Civil da Internet
Entrou em pauta no STF, sob relatoria do Ministro Dias Toffoli, o Tema 987, que põe em discussão a constitucionalidade do art. 19 do Marco Civil da Internet, que “determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros”.
O tema é polêmico. De um lado, estão as plataformas, que defendem a literalidade do art. 19 como está, deixando o Poder Judiciário como o responsável por ordenar a remoção de conteúdo.
De outro, estão os que entendem que os provedores de aplicação (sites, e-commerces e redes sociais, por exemplo) não são plataformas neutras e que, uma vez que editam publicações privilegiando umas em detrimento de outras, deveriam também filtrar e remover conteúdos que firam o ordenamento jurídico.
Há os que defendam que as plataformas deveriam remover conteúdos mediante simples notificação extrajudicial, enquanto existem os que optem pela saída da autorregulação regulada, em que a lei traria parâmetros gerais e as plataformas fariam a moderação de conteúdo dentro desses parâmetros.
O Poder Legislativo, depois do Marco Civil da Internet, não regulou mais o tema. O PL 2630/2020, aprovado no Senado Federal, propunha a criação de um Conselho de Transparência e Responsabilidade na Internet.
O texto não avançou na Câmara dos Deputados, abrindo espaço para o STF, no julgamento de um caso concreto, definir melhor os parâmetros da responsabilidade civil dos provedores de aplicações.
O caso foi julgado em junho de 2025 no Recurso Extraordinário 1037396, em que se discutia, à luz dos arts. 5º, incs. II, IV, IX, XIV e XXXVI, e 220, caput, §§ 1º e 2º, da Constituição da República, a constitucionalidade do referido artigo 19.
O caso concreto que trouxe a discussão sobre a inconstitucionalidade do art. 19
O leading case começou em 17 de novembro de 2014, sete meses após a promulgação do Marco Civil e apenas cinco meses após sua entrada em vigor.
No caso, uma pessoa do interior de São Paulo descobriu existir no Facebook um perfil falso com seu nome e suas fotos que era usado para ofender outras pessoas, o que lhe gerava danos pessoais.
Procurada por pessoas que achavam que era ela a dona do perfil, a autora registrou Boletim de Ocorrência e denunciou o perfil falso ao Facebook. A rede social, no entanto, não removeu o perfil.
A não remoção estava de acordo com o entendimento original do art. 19 do Marco Civil, visto que não havia ordem judicial para a remoção do conteúdo e o caso não envolvia pornografia. Considerando-se apenas a literalidade da Lei 12.965/2014, portanto, o Facebook não estava de fato obrigado a remover o conteúdo.
A autora ajuizou, no Juizado Especial Cível da Comarca de Capivari, uma ação de obrigação de fazer cumulada com pedido de condenação em danos morais em face do Facebook.
Os pedidos eram:
- Remoção do perfil
- Apresentação dos dados do usuário responsável pela criação do perfil falso
- Condenação do Facebook a pagar indenização por danos morais
Houve uma liminar e o perfil foi removido, seguindo o disposto no Marco Civil sobre antecipação de tutela. Depois, a sentença julgou procedente os pedidos de remoção definitiva do perfil e de apresentação do endereço IP do usuário responsável pela criação do perfil falso.
O pedido de condenação do Facebook a pagar indenização por danos morais, no entanto, foi negado na sentença, seguindo o disposto no art. 19 do Marco Civil da Internet, que isentava o provedor de aplicação de responsabilidade civil por danos decorrentes de conteúdo gerado por terceiros mediante mera notificação extrajudicial.
A contestação do Facebook
Em sua contestação, o Facebook argumentou que o Marco Civil da Internet dispunha que os provedores de aplicações não têm o dever legal de exercer qualquer fiscalização sobre qualquer conteúdo disponibilizado em suas plataformas.
Diz a peça:
Daí decorre que os provedores de aplicações de internet não poderão ser obrigados a fazer qualquer controle preventivo e/ou monitoramento sobre o conteúdo de páginas, perfis e grupos criadas por seus usuários, principalmente porque isso poderia implicar em censura prévia, violação à liberdade de expressão, violação à privacidade e violação a direitos de terceiros, há muito vedados pelos preceitos constitucionais abaixo e agora também vedados pelo art. 19 do Marco Civil da Internet.
Esta posição, tanto da empresa quanto da própria lógica original do Marco Civil, reflete uma época em que as redes sociais se colocavam como meramente como plataformas, em tese isentas, que não poderiam ser condenadas pelo que os seus usuários nelas publicavam, pois não faziam moderação de conteúdo, a não ser mediante ordem judicial.
Esse cenário mudou bastante de 2014 para cá. Hoje resta claro que tais aplicações – especialmente redes sociais de grande porte – não são meras plataformas isentas, mas possuem uma edição, ainda que algorítmica, para exibir mais certos conteúdos e ocultar outros, a depender do perfil de cada usuário.
Em 2014, no entanto, o Facebook contestou que seria necessário fazer um juízo de valor acerca da exclusão ou não do perfil alegadamente falso, o que poderia afetar a liberdade de expressão e facilitar a censura de terceiros.
A empresa alegou que competia exclusivamente ao Poder Judiciário avaliar a conta e os conteúdos apontados como infringentes e, se fosse o caso, determinar sua exclusão da internet, citando a Constituição Federal:
“Isso afeta diretamente o direito à liberdade de expressão e livre manifestação, constitucionalmente assegurados no Estado democrático de direito, nos termos dos artigos 5.°, IV, IX, XIV, LIV, e 220, caput, ambos da Constituição Federal.”
Por fim, pediu que o feito fosse extinto, sem julgamento de mérito, ou, que a demanda fosse julgada extinta, com julgamento do mérito, nos termos do artigo 269, inciso I, do Código de Processo Civil, afastando a condenação do Facebook ao ônus da sucumbência.
Os recursos inominados
Insatisfeita com a negativa do pedido de indenização na sentença do Juizado Especial Cível, a autora interpôs Recurso Inominado para que os autos fossem encaminhados ao Colégio Recursal do Juizado Especial Cível da Comarca de Capivari.
Também o Facebook interpôs o seu recurso inominado, argumentando que não poderia fornecer o endereço de IP do usuário que criou o perfil falso, pois na época ainda não havia sido editado o Decreto que regulamentou o Marco Civil da Internet e, portanto, não haveria ainda a obrigação de guarda de registros de acesso.
Analisando os dois recursos inominados e as respectivas contrarrazões, a 2ª Turma Recursal Cível do Colégio Recursal – Piracicaba reformou a sentença em dezembro de 2015 e deu provimento aos recursos da autora (para condenar o Facebook no pagamento de indenização, no valor de R$ 10 mil) e da ré (para desobrigá-la do fornecimento do endereço IP do usuário que criou o perfil falso).
O acórdão não utilizava apenas o art. 19 do Marco Civil, mas invocava o Código de Defesa do Consumidor e a Constituição Federal para condenar o Facebook a indenizar a autora:
“Para fins indenizatórios, todavia, condicionar a retirada do perfil falso somente “após ordem judicial específica”, na dicção desse artigo, significaria isentar os provedores de aplicações, caso da ré, de toda e qualquer responsabilidade indenizatória, fazendo letra morta do sistema protetivo haurido à luz do Código de Defesa do Consumidor, circunstância que, inclusive, aviltaria preceito constitucional (art. 5°, inciso XXXII, da Constituição Federal)”
O voto do relator invalidava o art. 19 do Marco Civil, argumentando que a disposição “como que quer obrigar, compelir o consumidor vitimado, a ingressar em Juízo para atendimento de pretensão que, seguramente, poderia ser levada a cabo pelo próprio provedor cercando-se de garantias a fim de preservar, em última análise, a liberdade de expressão”.
O embargo do Facebook
O Facebook opôs embargos de declaração, alegando que o acórdão da 2ª Turma Recursal Cível do Colégio Recursal – Piracicaba apresentava uma contradição interna ao aplicar o art. 15 do Marco Civil da Internet (que dispensou o Facebook de entregar o endereço IP do usuário) e não aplicar o art. 19 da mesma lei (o que resultou na condenação para indenizar a autora).
O Facebook considerou que o acórdão julgou incidentalmente inconstitucional o art. 19 do Marco Civil da Internet, “em flagrante violação aos princípios da legalidade e da reserva de jurisdição”.
O embargo apontava omissões quanto aos dispositivos legais atinentes à responsabilidade civil; quanto à excludente de responsabilidade por ato de terceiro; e quanto aos princípios da legalidade, reserva jurisdicional, vedação à censura, liberdade de manifestação de pensamento e direito à informação.
O embargo de declaração pedia que, supridas as omissões, fosse modificado todo o substrato lógico-jurídico subjacente à decisão da qual se pedia esclarecimentos. Trazia ainda uma série de prequestionamentos, de modo a preparar possíveis Recursos Especiais e Extraordinários ao STJ e ao STF, respectivamente.
Tratava-se, segundo a embargante, de “uma daquelas raras situações em que se devem emprestar efeitos infringentes a estes embargos para o fim de afastar a condenação”.
Mesmo com toda argumentação, todavia, o embargo não foi provido, nos seguintes termos:
“Inexiste regra hermenêutica que impeça aplicar, de um mesmo texto legal (no caso, a Lei 12.965/14, chamada Marco Civil da Internet) um ou mais dispositivos (na hipótese, o art. 15, que estabelece prazo de seis meses para que um provedor de aplicações mantenha os registros de acesso a aplicações), e deixar de aplicar outro por considerá-lo ofensivo à Constituição Federal e a normas de ordem pública como o Código de Defesa do Consumidor (in casu, o art. 19), na conformidade da fundamentação posta no v. acórdão embargado e ora mantida.”
Com a declaração incidental de inconstitucionalidade do art. 19, o Facebook partiu para o Recurso Extraordinário no STF.
O Recurso Extraordinário 1.037.396 São Paulo, que questiona a responsabilidade civil dos provedores
Já em abril de 2016, o Facebook interpôs Recurso Extraordinário contra o acórdão que julgou incidentalmente inconstitucional o art. 19 e o condenou a pagar indenização por conteúdo gerado por terceiros por não remover o perfil falso sem ordem judicial.
O recurso argumenta que todos os provedores de aplicações na Internet, a partir da promulgação do Marco Civil, passaram a atuar com a confiança de que a seara competente para decidir questões relacionadas à remoção de conteúdo é o Poder Judiciário e que eventual responsabilização civil só viria com o descumprimento de ordem judicial.
Argumenta também que o Marco Civil é uma lei específica e posterior ao Código de Defesa do Consumidor e que, portanto, deveria ser o diploma aplicado no caso concreto.
Assim, a declaração incidental de inconstitucionalidade do art. 19 traria insegurança jurídica a todos, pois os provedores de aplicação não deveriam atuar como filtros de conteúdo, sendo meros intermediários.
Em fevereiro de 2018, o Ministro Dias Toffoli reconheceu a existência de questão constitucional e a repercussão geral da matéria.
Pedidos de amicus curiae
Após o reconhecimento da repercussão geral do tema, o STF recebeu pedidos de organizações para serem admitidas como amicus curiae no processo, incluindo:
- Yahoo! do Brasil (indeferido)
- Instituto Brasileiro de Política e Direito do Consumidor – Brasilcon (indeferido)
- Google Brasil (deferido)
- Intervozes – Coletivo Brasil de Comunicação Social (indeferido)
- Instituto dos Advogados de São Paulo (deferido)
- Associação Brasileira de Jornalismo Investigativo (indeferido)
- Mercado Livre (indeferido)
- Wikimedia Foundation (indeferido)
- Instituto Brasileiro de Defesa do Consumidor (indeferido)
- Centro de Ensino e Pesquisa em Inovação da Escola de Direito de São Paulo da Fundação Getúlio Vargas e Centro Acadêmico Direito GV (indeferidos)
- InternetLab (indeferido)
- ITS Rio (indeferido)
- Associação Brasileira de Internet – Abranet (indeferido)
- Twitter (deferido)
- Grupo de Proteção à Marca – BGP (indeferido)
- Associação Dínamo e Associação Brasileira de Startups- ABStartups (indeferido)
- Confederação Israelita do Brasil
- NIC.br (deferido)
- ByteDance – TikTok (deferido)
- Instituto Brasileiro de Direito Civil (deferido)
- Associação Brasileira de Emissoras de Rádio e Televisão – Abert (deferido)
- Educafro (deferido)
- Instituto Alana
- Instituto para o Desenvolvimento do Varejo
- Ministério Público do Estado de São Paulo
A quantidade de interessados mostrava a importância do tema, que ao final decidiria se a responsabilidade civil dos provedores ficararia conforme disposta no art. 19 ou se seria modificada pelo entendimento do STF.
Pandemia de covid-19 e a audiência pública do STF
Já em 29 de janeiro de 2020, o STF convocou para março daquele ano uma audiência pública para tratar da responsabilidade civil de provedores por conteúdo ilícito gerado por terceiros.
A data coincidiu com o início da pandemia de covid-19 e a audiência só veio a ser realizada três anos depois, em março de 2023. Houve 91 inscritos para falar, mas o STF deferiu “apenas” 47 inscrições.
A Audiência Pública foi realizada em três partes nos dias 28 e 29 de março de 2023. Os vídeos abaixo contêm a íntegra das manifestações, sendo um conteúdo altamente recomendado para quem quiser se aprofundar no assunto:
Expositores da Parte 1:
– Facebook (Dr. Rodrigo Ruf Martins, Gerente Jurídico do Facebook Brasil)
– Google (Dr. Guilherme Cardoso Sanchez, Advogado Sênior da Google Brasil)
– Advogado do recorrido (Dr. Bruno Henrique Trevizan Forti)
– Secretaria de Comunicação Social da Presidência da República (João Brant, Secretário de Políticas Digitais)
– Ministério dos Direitos Humanos e Cidadania (Sílvio Almeida, Ministro de Estado de Direitos Humanos e Cidadania)
– Frente Parlamentar Mista da Economia e Cidadania Digital (Deputado Federal Lafayette de Andrada)
– Ministério da Justiça e Segurança Pública (Estela Aranha, Assessora Especial do Ministro de Estado da Justiça)
– Ministério das Comunicações (Maximiliano Salvadori Martinhão, Secretário de Telecomunicações do Ministério das Comunicações)
– Procuradoria Nacional da União de Defesa da Democracia da Advocacia-Geral da União (Dr. Marcelo
Eugênio Feitosa Almeida, Procurador-Geral da União)
– Ministério das Mulheres (Dra. Isis Menezes Taboas, Assessora do Gabinete da Ministra Das Mulheres)
Expositores da Parte 2:
– Twitter (Dra. Jacqueline Abreu, Consultora Jurídica no Twitter Brasil)
– TikTok (Fernando Gallo, Diretor de Políticas Públicas do TikTok no Brasil)
– Wikimedia Foundation (Dr. Tiago Machado Cortez, Advogado da Wikimedia)
– Mercado Livre (Dr. Humberto Chiesi Filho, Diretor Jurídico de Dispute Resolution na América Latina)
– GetEdu (Dr. José Emiliano Paes Landim Neto)
– Associação Brasileira de Internet – ABRANET (Dr. Carlos Affonso Souza)
– Federação das Associações das Empresas de Tecnologia da Informação (Dra. Adriele Pinheiro Reis Ayres de Britto)
– Associação Brasileira de Provedores de Internet e Telecomunicações – ABRINT (Dra. Cristiane Sanches de Souza Corrêa)
– Agência Nacional de Telecomunicações – Anatel (Dr. Carlos Manuel Baigorri, Presidente da Anatel)
– Autoridade Nacional de Proteção de Dados Pessoais – ANPD (Waldemar Gonçalves Ortunho Júnior, Diretor Presidente da ANPD)
– Instituto dos Advogados de São Paulo – IASP (Dr. Marcel Leonardi)
– OAB/SP (Dr. Ronaldo Lemos, Presidente da Comissão de Tecnologia e Inovação da OAB/SP)
– Associação Brasileira de Emissoras de Rádio e Televisão – ABERT (Dr. Marcelo Lamego Carpenter)
– Associação Nacional de Jornais – ANJ (Dr. Marcelo Rech, Presidente Executivo da ANJ)
– Associação Brasileira de Jornalismo Investigativo – Abraji (Dra. Tais Borja Gasparian)
– Associação Brasileira de Comunicação Pública (Cláudia Lemos, Presidente da ABCPúlica, e Lincoln Macário)
– Instituto Brasileiro de Defesa do Consumidor – IDEC (Dr. Walter José Faiad de Moura)
– Instituto Brasileiro de Política e Direito do consumidor – BRASILCON (Dr. João Victor Rozatti Longh e Dr. Guilherme Magalhães Martins)
– Artigo 19 Brasil (Dra. Raquel da Cruz Lima Coordenadora do Artigo 19 Brasil e América do Sul)
– Núcleo de informação e coordenação do Ponto BR – NIC.br (Dr. Demi Getschko, Diretor
do NIC.br e Conselheiro do Comitê Gestor da Internet no Brasil)
– Instituto Alana (Dra. Isabella Henriques, Diretora Executiva do Instituto Alana)
– Confederação Israelita do Brasil – CONIB (Dr. Rony Vainzof)
Expositores da Parte 3:
– Associação Brasileira de Jurimetria (Dr. Marcelo Guedes Nunes)
– Partido dos Trabalhadores – PT Diretório Nacional (Dr. Angelo Longo Ferraro, Dr. Miguel Filipi Pimentel Novaes e Dr. Marcelo Winch Schmidt)
– Instituto de Liberdade Digital c/c Laboratório de Direito Digital e Democracia da Faculdade de Direito da Universidade Presbiteriana Mackenzie (Dr. Diogo Rais)
– Legal Grounds Institute (Dr. Ricardo Campos)
– InternetLab (Dr. Francisco Brito Cruz, Diretor Executivo da InternetLab)
– Associação Brasileira de Centros de Inclusão Digital (Dr. Daniel Dias)
– Rede de Direito Civil Contemporâneo (Dr. Otávio Luiz Rodrigues Júnior e Dr. Rodrigo Xavier Leonardo)
– Clínica de Responsabilidade Civil da Universidade do Estado do Rio de Janeiro (Dr. Anderson Schreiber)
– Instituto Brasileiro de Direito Civil (João Quinelato)
– Instituto de Tecnologia e Sociedade – ITS Rio (Dr. Fabro Steibel, Diretor-Executivo do ITS Rio)
– Instituto Internet no Estado da Arte e Instituto Norberto Bobbio (Dra. Patrícia Peck Pinheiro, Diretora Executiva da ISTART)
– Centro de Tecnologia e Sociedade da FGV DIREITO RIO (Dr. Nicolo Zingales)
– Centro de Ensino e Pesquisa em Inovação da Escola de Direito Fundação Getúlio Vargas de São Paulo (Dr. Alexandre Pacheco da Silva, Coordenador do Centro de Pesquisa)
– Associação Brasileira de Rádio e Televisão – ABRATEL (Dr. Aislan Vargas Basílio)
– Associação Nacional dos Editores de Revistas – ANER (Dr. Marcelo Bechara de Souza Hobaika)
O ITS Rio realizou um mapeamento dos posicionamentos da audiência pública, divulgando o seguinte “placar”:
- Pela constitucionalidade do art. 19: 22 posicionamentos
- Pela interpretação conforme a Constituição ou Neutro: 17 posicionamentos
- Pela inconstitucionalidade do art. 19: 8 posicionamentos
Manifestações da Procuradoria-Geral da República
A Procuradoria-Geral da República manifestou-se no âmbito do Recurso Extraordinário ainda em 2018, opinando inicialmente pela constitucionalidade do art. 19 do Marco Civil.
Depois, em maio de 2023, ainda sob gestão do Procurador-Geral Augusto Aras, apresentou nova manifestação, pelo desprovimento do recurso extraordinário e sugerindo a fixação das seguintes teses:
- Descabe ao provedor de hospedagem de perfis pessoais (redes sociais) controlar previamente o conteúdo dos dados que transitam em seus servidores; e
- O provedor de aplicações de internet, independentemente de ordem judicial, há de atuar com a devida diligência, a fim de observar os direitos fundamentais, prevenir sua violação e reparar danos decorrentes de condutas de usuários não acobertadas pela liberdade de expressão, a exemplo de manifestações ilegais desidentificadas, baseadas em fatos sabidamente inverídicos ou de conteúdo criminoso.
Pedido de revogação do art. 19 no anteprojeto do novo Código Civil
Em abril de 2024, a Comissão de Juristas responsável pela para revisão e atualização do Código Civil apresentou seu anteprojeto propondo a revogação do art. 19 do Marco Civil da Internet.
O anteprojeto também propôs a inserção de um livro específico de Direito Digital no Código Civil, com um capítulo que cuida de estabelecer parâmetros para a responsabilização civil das plataformas.
Diz o texto que devem ser assegurados mecanismos eficazes de reclamação e de reparação integral de danos para permitir que os indivíduos afetados por conteúdo ilícito notifiquem a plataforma digital, por meio de acesso a canal de denúncias, em seu idioma local, devendo os indivíduos ser notificados sobre o resultado de sua reclamação.
Quando a plataforma por notificada pelo interessado, e demonstrado o conhecimento pela plataforma sobre a potencial ilicitude do conteúdo, deverão ser adotadas as providências necessárias para a indisponibilização do conteúdo ilícito.
De acordo com o disposto, não seria necessária uma ação judicial para a remoção do conteúdo.
O anteprojeto também repete o Marco Civil ao dispor que os termos de uso devem ser escritos em linguagem clara, mas acrescenta expressamente que os termos de uso das plataformas digitais que contrariarem normas cogentes ou de ordem pública serão nulos de pleno direito.
O fim do capítulo dispõe que as plataformas digitais poderão ser responsabilizadas administrativamente e civilmente:
- pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma;
- por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento sistemático dos deveres e das obrigações previstas no Código Civil, aplicando-se o sistema de responsabilidade civil nele consagrado e previsto.
A proposta de revogação do art. 19 do Marco Civil da Internet não vem integrada ao capítulo, porém como uma proposta separada ao final do relatório.
A declaração de inconstitucionalidade parcial do art. 19 pelo STF
Finalmente, em junho de 2025, o STF julgou parcialmente inconstitucional a regra do art. 19 do Marco Civil da Internet. Por maioria de votos, prevaleceu o entendimento de que o entendimento original já não seria suficiente para proteger direitos fundamentais e a democracia.
Para preservar a segurança jurídica, os efeitos da decisão foram modulados para o futuro, após 26 de junho de 2025. Ou seja, as novas regras só serão aplicadas prospectivamente, ressalvadas decisões transitadas em julgado.
A tese de repercussão geral diz o seguinte:
O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).
Como apenas declarar a inconstitucionalidade parcial não seria suficiente, o Supremo definiu também as diretrizes para interpretação do art. 19, ao menos até que o Congresso Nacional edite uma nova legislação sobre o tema, atendendo a um apelo do próprio STF.
A interpretação do STF sobre a responsabilidade civil dos provedores de aplicação
Enquanto não sobrevier nova legislação, o STF determina que art. 19 deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo Tribunal Superior Eleitoral.
Pela nova interpretação, o provedor de aplicações de qualquer porte (com exceção dos marketplaces) será responsabilizado civilmente, nos termos do art. 21 do Marco Civil da Internet, pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo. Aplica-se a mesma regra nos casos de contas denunciadas como inautênticas.
Aos marketplaces, como Mercado Livre e Amazon, aplica-se o sistema de responsabilização civil previsto no Código de Defesa do Consumidor.
Ademais, não há responsabilidade objetiva na aplicação da tese enunciada, embora haja uma presunção de responsabilidade para conteúdos ilícitos pagos e rede artificial de distribuição, como veremos a seguir.
Em outras palavras, o que antes era apenas a exceção do art. 21 para os casos da chamada “pornografia de vingança” e similares, agora passa a ser a regra. Em vez de “na dúvida, deixa publicado”, passa a ser “na dúvida, remove-se”.
E essa nova regra passa a ter uma exceção, que são os crimes contra a honra (calúnia, injúria, difamação) dispostos no Capítulo V do Código Penal. Para esses casos, aplica-se o art. 19, sem prejuízo da possibilidade de remoção por notificação extrajudicial.
Além disso, o Supremo definiu que, em se tratando de sucessivas replicações do fato ofensivo já reconhecido por decisão judicial, todos os provedores de redes sociais deverão remover as publicações com idênticos conteúdos, independentemente de novas decisões judiciais, a partir de notificação judicial ou extrajudicial.
Resumindo em cinco pontos:
- O art. 21 passa a ser a regra: o provedor de aplicações será responsabilizado civilmente pelos danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos, sem prejuízo do dever de remoção do conteúdo.
- O art. 19 passa a ser a exceção para os casos de crimes contra a honra (calúnia, injúria e difamação): o provedor de aplicações só poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como calúnia, injúria ou difamação.
- Os provedores de aplicações de internet que funcionarem como marketplaces respondem civilmente de acordo com o Código de Defesa do Consumidor.
- Ressalva-se a aplicação das disposições específicas da legislação eleitoral e os atos normativos expedidos pelo Tribunal Superior Eleitoral.
- Não há responsabilidade objetiva na aplicação da tese enunciada, apesar de haver uma presunção de responsabilidade para conteúdos ilícitos pagos e rede artificial de distribuição.
A decisão dispõe ainda que se aplica o art. 19 nos seguintes casos:
- Provedor de serviços de e-mail;
- Provedor de aplicações cuja finalidade primordial seja a realização de reuniões fechadas por vídeo ou voz;
- Provedor de serviços de mensageria instantânea (também chamadas de provedores de serviços de mensageria privada), exclusivamente no que diz respeito às comunicações interpessoais, resguardadas pelo sigilo das comunicações (art. 5º, inciso XII, da CF/88).
Ou seja, aplicações como Gmail e Zoom só podem ser responsabilizadas civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente.
Não ficou claro como seriam os casos de conteúdos gerados por terceiros em e-mails ou videoconferências, mas a disposição está assim na decisão.
Em relação a aplicações como WhatsApp e Telegram, o art. 19 só se aplica para as comunicações interpessoais, como as conversas entre duas pessoas.
No caso de comunidades, grupos, atualizações e quaisquer outras comunicações que não estejam resguardadas pelo sigilo constitucional das comunicações, aplica-se ao serviço de mensageria o art. 21.
Presunção de responsabilidade para conteúdos ilícitos pagos e rede artificial de distribuição
A decisão do Supremo também estabeleceu a presunção de responsabilidade dos provedores de aplicação em caso de conteúdos ilícitos quando se tratar de:
- Anúncios e impulsionamentos pagos; ou
- Rede artificial de distribuição (chatbot ou robôs).
Nestas hipóteses, a responsabilização do provedor de aplicação poderá se dar independentemente de notificação.
Os provedores ficarão excluídos de responsabilidade se comprovarem que atuaram diligentemente e em tempo razoável para tornar indisponível o conteúdo ilícito.
Dever de cuidado em caso de circulação massiva de conteúdos ilícitos graves
O chamado “dever de cuidado” também foi abordado na decisão do STF, especificamente nos casos de circulação massiva de conteúdos ilícitos graves diante do que o Supremo chamou de “falha sistêmica”.
A decisão dispõe que o provedor de aplicações de internet é responsável quando não promover a indisponibilização imediata de conteúdos que configurem as práticas de “crimes graves”.
Para não deixar a expressão “crimes graves” em aberto, o próprio Supremo listou taxativamente quais seriam tais crimes:
- Condutas e atos antidemocráticos que se amoldem aos tipos previstos nos artigos 296, parágrafo único, 359-L, 359- M, 359-N, 359-P e 359-R do Código Penal;
- Crimes de terrorismo ou preparatórios de terrorismo, tipificados pela Lei nº 13.260/2016;
- Crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação, nos termos do art. 122 do Código Penal;
- Incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas), passível de enquadramento nos arts. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 1989;
- Crimes praticados contra a mulher em razão da condição do sexo feminino, inclusive conteúdos que propagam ódio ou aversão às mulheres (Lei nº 11.340/06; Lei nº 10.446/02; Lei nº 14.192/21; CP, art. 141, § 3º; art. 146-A; art. 147, § 1º; art. 147-A; e art. 147-B do CP);
- Crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes, nos termos dos arts. 217-A, 218, 218-A, 218-B, 218-C, do Código Penal e dos arts. 240, 241-A, 241-C, 241-D do Estatuto da Criança e do Adolescente;
- Tráfico de pessoas (Cógigo Penal, art. 149-A).
A responsabilidade dos provedores de aplicações de internet nesses casos diz respeito à configuração de falha sistêmica, que o STF definiu da seguinte forma:
Considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de prevenção ou remoção dos conteúdos ilícitos anteriormente listados, configurando violação ao dever de atuar de forma responsável, transparente e cautelosa.
A decisão também define que se consideram adequadas as medidas que, “conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor”.
Note-se que a existência de conteúdo ilícito de forma isolada não é, por si só,
suficiente para ensejar a aplicação da responsabilidade civil dos provedores de aplicação. Para que se apliquem essas disposições específicas, é preciso que haja a circulação massiva dos conteúdos ilícitos graves.
Assim, no caso de conteúdo ilítico de forma isolada, incidirá o regime de responsabilidade previsto no art. 21, que passou a ser a regra a partir da decisão do STF.
Ainda nas hipóteses previstas para a circulação massiva de conteúdos ilícitos graves, o responsável pela publicação do conteúdo removido pelo provedor de aplicações de internet poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Mesmo que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.
Autorregulação e outros deveres adicionais
Na parte final da decisão, antes de apelar ao Congresso Nacional para que seja elaborada legislação capaz de sanar as deficiências quanto à proteção de direitos fundamentais, o Supremo listou uma série de deveres adicionais que devem ser adotados pelos provedores de aplicações.
O primeiro diz que os provedores devem editar autorregulação que abranja, necessariamente, sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
Os provedores também devem disponibilizar a usuários e a não usuários canais específicos de atendimento, preferencialmente eletrônicos, que sejam acessíveis e amplamente divulgados nas respectivas plataformas de maneira permanente.
As regras de autorregulação devem ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.
Para evitar dificuldades de notificação já verificadas em outras ocasiões, os provedores de aplicações que atuem no Brasil devem constituir e manter sede e representante no país, cuja identificação e informações para contato deverão ser disponibilizadas e estar facilmente acessíveis nos respectivos sites.
A representação deve conferir ao representante, necessariamente pessoa jurídica com
sede no Brasil, plenos poderes para:
- Responder perante as esferas administrativa e judicial;
- Prestar às autoridades competentes informações relativas ao funcionamento do provedor, às regras e aos procedimentos utilizados para moderação de conteúdo e para gestão das reclamações pelos sistemas internos; aos relatórios de transparência, monitoramento e gestão dos riscos sistêmicos; às regras para o perfilamento de usuários (quando for o caso), a veiculação de publicidade e o impulsionamento remunerado de conteúdos;
- Cumprir as determinações judiciais; e
- Responder e cumprir eventuais penalizações, multas e afetações financeiras em que o representado incorrer, especialmente por descumprimento de obrigações legais e judiciais.
Não ficou definido na decisão quem vai fiscalizar se os provedores de aplicação estão cumprindo os deveres adicionais.
Conclusão: a responsabilidade civil dos provedores
O julgamento do STF sobre a responsabilidade civil dos provedores de aplicações de internet representa uma mudança significativa no entendimento originalmente adotado pelo Marco Civil da Internet.
Até junho de 2025, prevalecia o art. 19, que estabelecia como regra a necessidade de ordem judicial específica para responsabilização civil por conteúdos ilícitos publicados por terceiros.
Com a decisão do STF, essa norma foi declarada parcialmente inconstitucional, passando o art. 21, antes reservado a casos excepcionais como pornografia de vingança, a ser a regra geral.
A partir de agora, provedores como sites, redes sociais e aplicativos poderão ser responsabilizados civilmente quando não removerem, independentemente de ordem judicial, conteúdos que configurem crimes ou atos ilícitos, incluindo contas denunciadas como inautênticas.
Mantém-se, contudo, o art. 19 como exceção para crimes contra a honra (calúnia, injúria e difamação), exigindo ainda decisão judicial prévia nesses casos específicos.
Ademais, marketplaces passam a responder de acordo com o Código de Defesa do Consumidor, enquanto serviços privados de mensageria, e-mail e reuniões fechadas permanecem sujeitos à regra do art. 19, salvo para comunicações abertas ou não protegidas pelo sigilo constitucional, às quais se aplicará o art. 21.
Além disso, o STF estabeleceu critérios para responsabilização em casos de circulação massiva de conteúdos ilícitos graves, configurando um “dever de cuidado” dos provedores.
Destacou-se, ainda, a presunção de responsabilidade nos conteúdos ilícitos pagos e distribuídos artificialmente, incentivando a adoção de medidas de prevenção e moderação ágeis e eficazes.
Por fim, foram impostos deveres adicionais aos provedores, incluindo a obrigatoriedade de autorregulação transparente, relatórios anuais, canais de atendimento eficazes e presença física no país com representante dotado de amplos poderes legais.
Essa decisão amplia significativamente o escopo da responsabilidade dos provedores, respondendo às novas realidades das plataformas digitais e protegendo direitos fundamentais essenciais, ao mesmo tempo em que reforça a necessidade urgente de uma nova legislação, mais completa e atualizada, para disciplinar definitivamente essa matéria.
A decisão do STF gerou críticas e elogios, com argumentos fortes tanto para quem defendia o modelo original do Marco Civil da Internet quanto para quem alegava que o modelo não mais se adequava às necessidades dos novos tempos.
O debate segue aberto e os efeitos da decisão do STF ainda hão de ser observados, ao menos até que o Congresso Nacional edite uma nova legislação sobre o tema.






