A máxima de que a internet é "terra sem lei" está cada vez mais distante da realidade, especialmente após uma decisão histórica do Supremo Tribunal Federal (STF) que redefiniu as regras sobre a responsabilidade por conteúdos publicados online. O julgamento dos Temas 533 e 987 alterou significativamente o cenário, impondo novos e mais rigorosos deveres às plataformas digitais como Meta (Facebook e Instagram), Google e X (antigo Twitter).
Até então, a norma vigente, estabelecida pelo Artigo 19 do Marco Civil da Internet, era clara: as plataformas só eram obrigadas a remover um conteúdo considerado ilícito após o recebimento de uma ordem judicial específica. Essa exigência, na prática, tornava o processo de defesa da honra e da imagem lento e, muitas vezes, ineficaz, permitindo que publicações ofensivas permanecessem no ar por longos períodos.
Contudo, a recente intervenção do STF mudou drasticamente este paradigma, estabelecendo um novo conjunto de regras que equilibra a liberdade de expressão com a proteção dos direitos fundamentais.
A primeira e mais impactante mudança é que a notificação extrajudicial agora tem força para gerar responsabilidade. Isso significa que, se uma plataforma for formalmente notificada por uma vítima ou seu advogado sobre um conteúdo potencialmente ilegal e optar por não agir, ela poderá ser responsabilizada civilmente caso a Justiça, posteriormente, confirme a ilicitude do material. A omissão, que antes era a regra, agora pode custar caro.
Além disso, o STF instituiu um dever de cuidado ativo para conteúdos de natureza grave. Publicações que incitem crimes como racismo, terrorismo, homofobia, atos antidemocráticos ou que violem os direitos de crianças e adolescentes exigem uma postura proativa das plataformas. Elas devem utilizar suas tecnologias e equipes para identificar e remover esses materiais sem a necessidade de provocação externa. A falha em criar e manter sistemas eficazes para essa moderação pode ser caracterizada como uma "falha sistêmica", gerando o dever de indenizar.
Finalmente, a decisão simplificou a luta contra a desinformação viral. Uma vez que um conteúdo específico seja declarado ilegal por uma decisão judicial, todas as suas réplicas idênticas devem ser removidas mediante uma simples notificação. Isso elimina a necessidade de múltiplas ações judiciais para combater o mesmo material copiado e compartilhado em massa, conferindo mais agilidade à vítima.
Na prática, essas mudanças representam um avanço significativo para os usuários, que ganham ferramentas mais rápidas para a proteção de seus direitos. Para as empresas, o recado é de que a gestão de crises de imagem e a moderação de conteúdo se tornaram aspectos centrais de sua operação. Para os advogados, surgem novas teses e estratégias para a defesa de seus clientes no ambiente digital.
A decisão do STF, portanto, não visa cercear a liberdade de expressão, pilar essencial da democracia, mas sim reforçar que ela não é um direito absoluto. O novo cenário jurídico busca um equilíbrio mais justo, onde a responsabilidade pelo que é dito e compartilhado no ambiente online é, finalmente, compartilhada.