O Supremo Tribunal Federal (STF) finalizou, em 26 de junho de 2025, um julgamento que redefine a responsabilidade das plataformas digitais no Brasil, alterando a interpretação do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014). Por 8 votos a 3, a Corte decidiu que redes sociais, como YouTube, Instagram e Facebook, podem ser responsabilizadas por conteúdos ilícitos publicados por usuários, mesmo sem ordem judicial prévia, desde que notificados extrajudicialmente. A medida, que busca proteger direitos fundamentais e a democracia, gerou debates acalorados, com críticos apontando riscos de censura privatizada.
A decisão do STF estabelece que as plataformas devem remover imediatamente conteúdos considerados ilegais, como aqueles que incitam crimes graves, incluindo ataques à democracia, discurso de ódio, pornografia infantil, terrorismo, incitação ao suicídio, tráfico de pessoas e violência contra a mulher, após notificação extrajudicial. A exigência de ordem judicial para retirada de conteúdos foi mantida apenas para casos de crimes contra a honra, como calúnia, difamação e injúria. A Corte argumentou que o artigo 19, em sua forma original, não oferece proteção suficiente contra a disseminação de desinformação e conteúdos antidemocráticos, que têm crescido nas redes sociais.
Para os ministros favoráveis à mudança, como Luiz Fux, Dias Toffoli e Gilmar Mendes, a nova interpretação equilibra a liberdade de expressão com a necessidade de proteger a sociedade de conteúdos danosos. Eles destacaram que as plataformas, ao lucrarem com o engajamento de usuários, têm o dever de adotar medidas proativas para conter a propagação de ilegalidades. A decisão também determina que replicações de conteúdos já considerados ilícitos pela Justiça devem ser removidas por todas as plataformas sem necessidade de novas ordens judiciais, especialmente em casos de anúncios pagos ou impulsionamento por robôs.
Os ministros André Mendonça, Edson Fachin e Nunes Marques, que votaram contra a medida, defenderam a manutenção da exigência de ordem judicial para evitar a remoção arbitrária de conteúdos e proteger a liberdade de expressão. Eles argumentaram que delegar às plataformas a decisão sobre o que é ilícito pode levar à autocensura, com empresas removendo conteúdos legítimos por receio de sanções financeiras. Críticos, como o jornal O Estado de S. Paulo, alertam que a medida cria um ambiente de “censura terceirizada”, onde termos vagos como “discurso de ódio” ou “ataques à democracia” podem ser usados para justificar remoções excessivas.
A decisão também impõe obrigações às plataformas, como a criação de sistemas transparentes de notificação e a publicação de relatórios anuais sobre moderação de conteúdo. Empresas digitais devem manter representantes legais no Brasil para responder à Justiça e cumprir determinações. A regra não se aplica a serviços de mensagens privadas, como WhatsApp e Telegram, que continuam protegidos pelo sigilo das comunicações, exigindo ordem judicial para remoção de conteúdos.
O STF enfatizou que a decisão é provisória, válida até que o Congresso Nacional elabore uma nova legislação sobre o tema. Parlamentares, como o deputado Osmar Terra (MDB-RS), criticaram a medida, alegando que ela enfraquece o papel do Legislativo e pode limitar o debate público. Por outro lado, defensores, como o deputado Ivan Valente (Psol-SP), argumentam que a regulamentação é necessária para conter a monetização de conteúdos prejudiciais.
A medida coloca o Brasil em uma posição única globalmente, sendo o primeiro país onde o Judiciário assumiu a regulação das redes sociais sem a participação direta do Legislativo. Comparações com a Lei de Serviços Digitais da União Europeia foram rebatidas por críticos, que apontam que a legislação europeia foi aprovada por um processo parlamentar transparente, diferentemente da decisão brasileira.