Julgamento aprofunda discussão sobre liberdade de expressão e o combate à desinformação, ao discurso de ódio e a ilícitos no ambiente digital
O debate sobre a responsabilização das plataformas digitais no Brasil está impactando a forma como essas empresas lidam com conteúdos postados online por terceiros. Em bom português: as postagens que cada um de nós faz em seu próprio feed estão em pauta. Afinal, a rede social na qual tenho uma conta deve ser co-responsável pelo conteúdo que eu compartilho?
Cada vez mais se evidencia o embate entre a liberdade de expressão e o combate à desinformação, ao discurso de ódio e a ilícitos no ambiente digital. No centro dessa discussão está o artigo 19 do Marco Civil da Internet. Mas, para compreender melhor o tema, é preciso começar do início.
Leia mais: “Redes mostram: 96% são contra mais deputados”
Instituído pela Lei nº 12.965/2014, o Marco Civil da Internet representou um marco regulatório fundamental para o uso da internet no Brasil. A lei estabeleceu princípios, garantias, direitos e deveres no ambiente digital, buscando harmonizar a liberdade de expressão, a proteção de dados pessoais e a responsabilidade dos provedores.
O artigo 19 introduziu o modelo de responsabilidade subjetiva dos provedores de aplicação — categoria que abrange plataformas como Facebook, TikTok, Instagram, entre outras. Segundo esse dispositivo, o provedor somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar providências para tornar o conteúdo indisponível. Em outras palavras, uma simples notificação extrajudicial não obriga a plataforma a remover o conteúdo.
Assim, entende-se que a responsabilização dos provedores de aplicação no Brasil segue um modelo judicializado de remoção de conteúdo, conhecido como notice and takedown. Esse modelo foi adotado com o objetivo de preservar a liberdade de expressão e evitar remoções arbitrárias por parte das plataformas. De acordo com ele, os provedores só podem ser responsabilizados civilmente se, após o recebimento de uma ordem judicial específica, não removerem o conteúdo considerado ilícito.
No entanto, a aplicação estrita dessa regra tem gerado controvérsias, especialmente quanto à sua efetividade prática. Isso porque, diante da velocidade com que informações se propagam na internet e da gravidade de algumas violações, aguardar uma decisão judicial pode tornar a resposta ineficaz para proteger os direitos violados de forma tempestiva.
Essa distinção é essencial. O Marco Civil da Internet estabelece regras diferentes para cada tipo de provedor, e o artigo 19 trata especificamente da responsabilidade dos provedores de aplicação quanto aos conteúdos publicados por terceiros.
Existem dois tipos principais de provedores definidos pelo Marco Civil da Internet:
Sim — e esse é justamente o centro do debate no Supremo Tribunal Federal. A responsabilização dos provedores de aplicação pode ocorrer de forma direta ou indireta, a depender da conduta da plataforma.
Nesse contexto, o ordenamento jurídico brasileiro adota um modelo de responsabilidade subjetiva, que exige a comprovação de que a plataforma foi judicialmente cientificada da ilicitude e, ainda assim, manteve-se inerte.
Essas distinções são fundamentais para compreender os limites da responsabilidade das plataformas digitais quanto aos conteúdos publicados por terceiros, especialmente em um cenário de crescente judicialização envolvendo desinformação, discurso de ódio e outros ilícitos no ambiente online.
Argumentos a favor do modelo atual: O modelo vigente é considerado uma salvaguarda importante da liberdade de expressão, pois evita que as plataformas removam conteúdos preventivamente por medo de ações judiciais — o que poderia levar à censura privada. Além disso, impede que as plataformas atuem como autoridades arbitrárias, decidindo unilateralmente o que pode ou não permanecer online. Outro ponto positivo é o estímulo à inovação: ao limitar a responsabilidade jurídica das plataformas, o modelo reduz riscos legais para startups e serviços emergentes, promovendo diversidade e pluralidade na internet.
Críticas ao modelo vigente e propostas de mudança: Por outro lado, críticos argumentam que o modelo judicializado é lento e ineficaz diante da rapidez com que conteúdos ilícitos se propagam online, como fake news e discursos de ódio. Essa morosidade compromete a proteção de direitos e a segurança informacional. Também se aponta a falta de mecanismos eficazes de responsabilização, permitindo que plataformas lucrem com conteúdos prejudiciais sem sofrer sanções legais proporcionais. Além disso, há quem sustente que o Brasil deveria se basear em diplomas mais rígidos, como o Digital Services Act (DSA) da União Europeia, o qual impõe obrigações proativas de moderação de conteúdo e transparência às grandes plataformas.
________________
* Juliana Roman é mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS), em parceria com o Centro de Estudos Europeus e Alemães (CDEA/DAAD). Especialista em Compliance pela Fundação Getulio Vargas (FGV). Especialista em Direito do Consumidor pela Universidade de Coimbra (FD/UC). Especialista em Direito Digital pela Fundação Escola Superior do Ministério Público (FMP). Graduada em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).