O Supremo Tribunal Federal (STF) retomou, no dia 4 de dezembro de 2024, o julgamento do Recurso Extraordinário nº 1.037.396, em que discute a constitucionalidade do artigo 19 da Lei 12.965/2014, o Marco Civil da Internet. O caso está sendo analisado conjuntamente com o Recurso Extraordinário nº 1.057.258, sob a relatoria do ministro Luiz Fux, que deverá apresentar seu voto na próxima quarta-feira, 11 de dezembro de 2024.
No Recurso Extraordinário 1.037.396 (Tema 987 da repercussão geral, com relatoria de Toffoli), é discutida a constitucionalidade do artigo 19 do Marco Civil da Internet. Ele exige o descumprimento de ordem judicial de exclusão de conteúdo para a responsabilização do provedor pelos danos decorrentes de atos praticados por terceiros — ou seja, as publicações feitas por usuários. O caso concreto é o de um perfil falso criado no Facebook.
Já no Recurso Extraordinário 1.057.258 (Tema 533 da repercussão geral, com relatoria do ministro Luiz Fux), é discutida a responsabilidade de provedores de aplicativos e ferramentas de internet pelo conteúdo publicado por usuários, assim como a possibilidade de remoção de conteúdos ilícitos a partir de notificações extrajudiciais. O caso trata de decisão que obrigou o Google a apagar uma comunidade do Orkut.
O artigo 19, no intuito de preservar a liberdade de expressão e impedir a censura, estabelece que as plataformas digitais somente devem ser responsabilizadas civilmente por danos decorrentes de conteúdos gerados por terceiros se, após ordem judicial específica, não forem adotadas as providências para tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em sentido contrário.
De acordo com o Ministro Dias Toffoli, o presente artigo corrobora para imunização das redes sociais e plataformas digitais ao estabelecer que a responsabilização só pode ocorrer após o descumprimento de decisão judicial. Afirmou que essa regra permite que conteúdos prejudiciais permaneçam na internet, causando danos irreparáveis, e defendeu que as mesmas leis aplicadas no mundo físico também sejam válidas no ambiente digital.
Por um lado, há o argumento de que o artigo visa proteger a liberdade de expressão ao evitar que plataformas se tornem mecanismos de censura, prevenindo remoções arbitrárias de conteúdos e garantindo o debate público e, em sentido contrário, há quem defenda que a manutenção da regra dificultaria a responsabilização de provedores em razão de danos causados por conteúdos ilícitos, tais como discursos de ódio, “fake news” e até mesmo crimes contra a honra.
A lógica do artigo 19 consiste no equilíbrio entre a liberdade de expressão e responsabilidade. Em vez de dar às plataformas poder irrestrito de decidir o que permanece online ou não, exige uma ordem judicial para que a remoção seja feita. A ideia é que um juiz, como figura imparcial, decida se determinado conteúdo realmente viola a lei.
Caso o artigo 19 seja declarado inconstitucional, a principal consequência consiste no aumento da responsabilidade das plataformas digitais sobre os conteúdos publicados por terceiros. Isso poderia levar a um comportamento de “censura preventiva”, em que as empresas, para evitar litígios e responsabilidades, removam conteúdos de forma indiscriminada, mesmo sem uma análise criteriosa sobre sua legalidade. Essa prática teria um efeito direto na liberdade de expressão, resultando na limitação do debate público e na retirada de conteúdos legítimos por simples precaução.
Outro efeito preocupante é a criação de um ambiente de incerteza jurídica para as empresas que operam no Brasil. Sem o respaldo de uma norma que estabelece critérios claros para a responsabilização, as plataformas poderiam enfrentar uma avalanche de ações judiciais, muitas vezes contraditórias. Isso não apenas dificultaria o cumprimento de suas funções, mas também poderia desestimular investimentos em inovação e tecnologia no país, prejudicando o ecossistema digital como um todo.
Por outro lado, a declaração de inconstitucionalidade beneficia vítimas de abusos, como difamações e violações de privacidade, ao permitir uma resposta mais ágil e efetiva contra conteúdos lesivos. Atualmente, a exigência de uma ordem judicial muitas vezes retarda a solução do problema, prolongando os danos sofridos pelas vítimas. Sem essa limitação, as plataformas seriam compelidas a agir de maneira mais célere e proativa.
O desafio, no entanto, consiste em encontrar um equilíbrio entre esses interesses conflitantes. A inexistência de critérios claros para a remoção de conteúdos pode gerar arbitrariedades e violações de direitos fundamentais, tanto por parte das plataformas quanto pelo risco de judicialização excessiva.
Durante a sessão, o Ministro Dias Toffoli, continuou a leitura de seu voto, iniciado em 28 de novembro, afirmando que o modelo de responsabilidade previsto no artigo 19 é inconstitucional, pois não oferece proteção efetiva aos direitos fundamentais no ambiente virtual e não está apto a enfrentar os riscos sistêmicos surgidos com as novas tecnologias e modelos de negócios.
O ministro destacou que a norma confere uma espécie de imunidade às plataformas digitais, que só podem ser responsabilizadas se descumprirem uma ordem judicial para retirada de conteúdo. Ele argumentou que essa configuração acoberta a violência digital e que a responsabilização é um mecanismo importante para desestimular condutas ilícitas.
Toffoli também mencionou que diversos ataques a escolas e à democracia foram previamente anunciados em redes sociais ou em grupos públicos de mensagens, sem que os serviços tomassem medidas para bloqueá-los. Ele sugeriu que, caso seu entendimento prevaleça, a responsabilização das plataformas por conteúdos de terceiros seja baseada no artigo 21 do Marco Civil, que prevê a retirada de conteúdo após simples notificação, especialmente em casos de divulgação não autorizada de imagens íntimas.
O julgamento foi suspenso e retomado em 5 de dezembro de 2024, com a continuação do voto do ministro Dias Toffoli, oportunidade em que votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet (Lei 12.965/2014). Em razão do julgamento conjunto com o RE 1057258, de relatoria do Ministro Luiz Fux, atualmente aguarda-se a apresentação do voto que tratará de questões complementares relacionadas à aplicação do dispositivo. O julgamento conjunto foi decidido para garantir uniformidade no entendimento do Supremo Tribunal Federal sobre a responsabilidade das plataformas digitais e os limites da moderação de conteúdo.
Os próximos passos incluem a manifestação dos demais ministros do colegiado, que deverão votar para formar a maioria quanto à constitucionalidade ou não do dispositivo. O resultado terá impactos diretos na regulação das plataformas digitais, na proteção de direitos fundamentais como liberdade de expressão e privacidade, e no combate à disseminação de conteúdos ilícitos na internet.
A decisão do STF poderá também servir como parâmetro para o futuro desenvolvimento legislativo sobre o tema, influenciando debates nacionais e internacionais sobre regulação de plataformas e responsabilidade de provedores de internet.
Por: Beatriz Vinesof