O Supremo Tribunal Federal (STF) prosseguiu nesta quarta-feira (11/06) com o julgamento conjunto de dois recursos que discutem a responsabilidade civil das plataformas da internet por conteúdos de terceiros. O centro do debate é se a responsabilização pela não remoção de material ofensivo (após solicitação das vítimas) dependeria de uma ordem judicial prévia. A análise será retomada nesta quinta-feira (12) com o voto do ministro Edson Fachin.
Marco Civil da Internet e a Proteção aos Usuários
Até o momento, seis ministros entendem que a regra do Marco Civil da Internet (MCI) – artigo 19 da Lei 12.965/2014 – editada há mais de 10 anos, não oferece proteção suficiente aos usuários, dada a revolução no modelo de utilização da internet e o uso massivo de redes sociais e aplicativos de troca de mensagens.
- Os ministros Dias Toffoli e Luiz Fux, relatores dos recursos, consideram a exigência de notificação judicial para retirada de conteúdo ofensivo como inconstitucional.
- Já os ministros Luís Roberto Barroso (presidente), Flávio Dino, Cristiano Zanin e Gilmar Mendes defendem que a norma é parcialmente inconstitucional. Para eles, a obrigação deve ser mantida em algumas situações específicas, como crimes contra a honra, onde a retirada da exigência poderia comprometer a proteção à liberdade de expressão.
- O ministro André Mendonça, por sua vez, entende que a regra é constitucional e que as plataformas têm legitimidade para defender a liberdade de expressão e preservar suas regras de moderação.
Disseminação de Conteúdo Ilícito e o Dever do Estado
O ministro Cristiano Zanin argumentou que o artigo 19 do MCI, se interpretado literalmente, é incompatível com o modelo atual de muitos provedores que fomentam a perpetuação de danos e desinformação. Ele destacou que a norma foi criada para proteger a liberdade de expressão, mas acabou potencializando a disseminação de conteúdo ilícito, com graves consequências para os direitos fundamentais e o Estado Democrático de Direito. Zanin propõe que, para provedores com controle ou conhecimento sobre a divulgação de conteúdo gerado por terceiros (especialmente via algoritmos), deve ser aplicado o artigo 21 do MCI, que prevê responsabilização se conteúdos potencialmente danosos forem mantidos no ar após notificação sem autorização.
O ministro Gilmar Mendes afirmou que, na redação atual, o MCI representa um “véu de irresponsabilidade” para plataformas digitais que, mesmo informadas sobre crimes, não podem ser responsabilizadas pelos danos, a menos que haja ordem judicial. Ele defendeu que é dever do Estado garantir um ambiente onde todos tenham liberdade de expressão. Mendes propôs um regime em que plataformas com grande controle sobre o conteúdo sejam responsabilizadas se não agirem após serem avisadas sobre algo inequivocamente ilegal. Ele também defende que provedores sejam solidariamente responsáveis se não retirarem imediatamente conteúdos e contas que veiculem crimes graves como discurso de ódio, racismo, homofobia, ideologias nazistas/fascistas e outras formas de discriminação.
Em relação à fiscalização, o decano do STF considera que a Autoridade Nacional de Proteção de Dados (ANPD) poderia desempenhar um papel regulador, dadas suas atribuições e estrutura voltadas ao impacto das novas tecnologias na proteção de dados pessoais.
Com informações de assessoria
Wagner Sales – editor de conteúdo
Foto: Fabio Rodrigues-Pozzebom / Agência Brasil