A decisão do Supremo Tribunal Federal (STF) sobre a responsabilidade das big techs por conteúdos publicados por terceiros reacendeu o debate entre liberdade de expressão, segurança jurídica e regulação da internet no Brasil. A Meta (controladora do Facebook, Instagram e WhatsApp) criticou a medida, afirmando que ela “enfraquece o Artigo 19 do Marco Civil da Internet” e pode trazer “consequências para a liberdade de expressão, inovação e desenvolvimento econômico digital“.
O que diz o Artigo 19 do Marco Civil da Internet?
A Lei 12.965/2014 (Marco Civil da Internet) estabelece, em seu Artigo 19, que as plataformas online só podem ser responsabilizadas por conteúdos de terceiros se não cumprirem ordem judicial específica para removê-los. Ou seja, originalmente, as redes sociais não eram obrigadas a monitorar tudo o que é postado, apenas a agir quando a Justiça determinasse.
O que o STF decidiu?
O STF manteve a essência do Artigo 19, mas reforçou que:
-
As plataformas não são responsáveis automaticamente por conteúdos ilegais postados por usuários.
-
Se houver uma decisão judicial determinando a remoção, as empresas devem cumprir, sob risco de serem responsabilizadas civilmente.
-
Não há obrigação de moderação proativa (ou seja, as big techs não precisam filtrar tudo antes de ser publicado).
Apesar disso, a Meta e outras empresas de tecnologia argumentam que a decisão cria insegurança jurídica, pois:
-
Abre espaço para interpretações amplas sobre o que é “diligência suficiente” após uma notificação.
-
Pode incentivar censura excessiva por medo de processos judiciais.
-
Aumenta custos operacionais, já que as plataformas terão que reforçar sistemas de compliance e resposta a ordens judiciais.
Ameaça à liberdade de expressão?
Defensores da decisão do STF (como juristas e entidades de direitos humanos) argumentam que:
A medida não cria censura prévia, pois só exige remoção após ordem judicial.
Protege vítimas de discurso de ódio, fake news e calúnia, que antes enfrentavam demora na retirada de conteúdos nocivos.
Alinha o Brasil a tendências internacionais, como a Lei de Serviços Digitais (DSA) da União Europeia, que também responsabiliza plataformas por moderação inadequada.
Já as big techs e parte do setor empresarial alertam que:
O Judiciário pode ser inundado com pedidos de remoção, sobrecarregando o sistema.
Plataformas podem adotar censura preventiva para evitar processos, limitando debates legítimos.
Inovação pode ser prejudicada, já que startups terão mais dificuldade em lidar com exigências legais.
O que muda na prática?
-
Para usuários: Redes sociais continuarão a publicar conteúdos sem filtro prévio, mas removerão posts se a Justiça mandar.
-
Para as big techs: Terão que acelerar processos de compliance e responder mais rápido a ordens judiciais.
-
Para o Judiciário: Pode haver aumento de ações judiciais contra plataformas, exigindo maior agilidade dos tribunais.
A discussão ainda não acabou: o Congresso Nacional debate o PL das Fake News (PL 2630/2020), que pode trazer novas regras. Enquanto isso, o STF deixou claro que a internet não é terra sem lei, mas também não endossou censura indiscriminada.