O impacto da decisão do STF sobre a responsabilidade das plataformas Sessão plenária do STF | Foto: Ton Molina/STF NOVAS REGRAS DO JOGO

O impacto da decisão do STF sobre a responsabilidade das plataformas

Decisão acarreta em desafios operacionais e regulatórios para as plataformas, que precisarão adotar políticas ativas de moderação

Em 26 de junho, o Supremo Tribunal Federal (STF) mudou significativamente o seu entendimento sobre a responsabilização das plataformas frente aos direitos dos usuários. A decisão da corte constitucional definiu a notificação extrajudicial como instrumento capaz de conferir responsabilidade às gigantes da tecnologia na moderação de conteúdos.

O STF julgou o artigo 19 do Marco Civil da Internet como parcialmente inconstitucional – até então, só admitia-se responsabilização das plataformas após descumprimento de ordem judicial. Nesse sentido, as empresas poderão ser responsabilizadas civilmente se:

  1. Não removerem conteúdos ilícitos após notificação extrajudicial, exceto casos envolvendo crimes contra a honra, que continuam exigindo ordem judicial. No entanto, nada impede que a remoção de publicação seja baseada apenas em notificação extrajudicial.
  2. Forem omissas diante de compartilhamento de conteúdos relacionados a crimes graves (racismo, terrorismo, pedofilia, homofobia, ataque à democracia, suicídio, entre outros.)
  3. Não removerem conteúdo previamente reconhecido como ilícito em decisão judicial. Sendo assim, deverão ser removidas as publicações com conteúdos idênticos, independentemente de novas decisões judiciais nesse sentido.
  4. Não contarem com instrumentos de autorregulação que abranjam sistema de notificações, devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamentos.
  5. Para atendimento aos usuários, as plataformas deverão disponibilizar canais permanentes e específicos de atendimento, preferencialmente eletrônicos, acessíveis e amplamente divulgados.

Em outras palavras, a partir de agora, vítimas ou representantes legais podem notificar diretamente a plataforma pedindo a remoção de conteúdos ofensivos. A omissão ou falha na remoção de conteúdo pode levar a responsabilização objetiva, sem necessidade de comprovação de culpa por parte da plataforma.

Leia mais: “Justiça e redes sociais: o que o ministro Salomão viu por trás da Lava Jato e o que teme à frente”

A decisão do STF acarreta em desafios operacionais e regulatórios para as plataformas, que precisarão adotar políticas ativas de moderação. Serão necessários investimentos em tecnologia e mão de obra capazes de garantir:

  • Sistemas para monitoramento ativo e automático
  • Processamento rápido de notificações extrajudiciais
  • Políticas transparentes e canais de apelação
  • Relatórios periódicos de transparência

Além disso, até que o Congresso Nacional edite nova lei sobre o assunto, a plataforma poderá ser responsabilizada civilmente pelos danos causados por conteúdos de terceiros em casos de crimes ou atos ilícitos, caso, após receber um pedido de remoção, não retire o conteúdo. Essa regra também se aplica a contas denunciadas como falsas. Para o seu melhor entendimento sobre como isso impacta você e as suas plataformas favoritas, confira alguns exemplos práticos abaixo:

Facebook

Caso: Discurso de ódio ou fake news

  • Novo entendimento do STF: Se alguém notifica o Facebook extrajudicialmente sobre um post com informações falsas ou discurso racista, e a plataforma não remover em tempo razoável, poderá ser responsabilizada civilmente por danos.
  • Exemplo da vida real: Uma postagem com desinformação sobre vacinação ou ataques a instituições democráticas que permanece ativa mesmo após notificação formal. O Facebook pode ser condenado por omissão.

Instagram

Caso: Exposição de imagens íntimas sem consentimento (“revenge porn”)

  • Novo entendimento do STF: Ao receber notificação extrajudicial da vítima, o Instagram deve agir rapidamente para remover o conteúdo. A omissão pode gerar responsabilidade da plataforma que é corresponsável pelo conteúdo compartilhado.
  • Exemplo da vida real: Uma garota descobre que fotos íntimas suas foram postadas por um ex-parceiro. Ela envia uma notificação via e-mail da plataforma, se o Instagram demorar tempo considerável ou se recusar a remover, poderá responder pelos danos materiais e morais causados à vítima.

YouTube

Caso: Vídeo promovendo golpe financeiro (ex: pirâmide ou “investimento milagroso”)

  • Novo entendimento do STF: Ao receber uma notificação extrajudicial que denuncia o conteúdo como fraude ou crime, o YouTube deve analisar e remover se constatada ilegalidade. Se manter o vídeo no ar, poderá ser responsabilizado solidariamente.
  • Exemplo da vida real: Um nfluenciador divulga esquema ilegal de “day trade infalível”. Após notificação extrajudicial, o YouTube se omite. Sendo assim, poderá ser obrigado a indenizar os usuários prejudicados.

TikTok

Caso: Conteúdo incentivando automutilação ou “desafios perigosos”

  • Novo entendimento do STF: Deve agir de forma imediata diante de conteúdos que coloquem em risco a integridade física de usuários.
  • Exemplo da vida real: Um desafio viral que incentiva adolescentes a se cortarem. O TikTok poderá ser responsabilidade, se não adotou medidas adequadas para a prevenção ou remoção de conteúdos ilícitos, em violação do dever de atuar de forma responsável, transparente e cautelosa.

Mercado Livre

Caso: Venda de produtos falsificados ou ilegais

  • Novo entendimento do STF: Após recebimento de notificação extrajudicial, o Mercado Livre tem o dever de remover o anúncio. Se não o fizer, responde solidariamente com o vendedor.
  • Exemplo da vida real: Uma marca de tênis notifica a empresa sobre centenas de produtos falsificados usando seu nome. Se a plataforma ignorar ou demorar demasiado, poderá ser condenada por conivência e omissão.

________________

* Juliana Roman é mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS), em parceria com o Centro de Estudos Europeus e Alemães (CDEA/DAAD). Especialista em Compliance pela Fundação Getulio Vargas (FGV). Especialista em Direito do Consumidor pela Universidade de Coimbra (FD/UC). Especialista em Direito Digital pela Fundação Escola Superior do Ministério Público (FMP). Graduada em Direito pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).

Compartilhar:

Relacionados