”Judiciário não está regulando plataformas digitais”


O STF iniciou o julgamento do tema em 2024, mas a análise foi suspensa em dezembro, após pedido de vista do ministro André Mendonça.
Antonio Augusto/STF

O STF iniciou o julgamento do tema em 2024, mas a análise foi suspensa em dezembro, após pedido de vista do ministro André Mendonça.

O Supremo Tribunal Federal (STF) retomou, na tarde desta quarta-feira (04), o julgamento de dois recursos que questionam algumas regras do Marco Civil da Internet.

Após a Suprema Corte marcar a data da sessão destinada a debater o tema, surgiram críticas, de representantes da sociedade civil e políticos, sobre uma possível regulamentação das redes sociais. Sobre isso, o ministro Luís Roberto Barroso afirmou que o judiciário “não está regulando as plataformas digitais”. 

“O judiciário não está legislando e, muito menos, regulando em caráter geral, abstrato e definitivo as plataformas digitais. Nós estamos julgando pretensões que chegaram até este tribunal por via de recursos” , esclareceu o presidente do STF antes do início do julgamento. 

A corte analisa os Recursos Extraordinários (REs) 1037396 e 1057258, que contestam o artigo 19 da  Lei 12.965/2014, que estabeleceu o Marco Civil da Internet. Nas ações, o Google e o Facebook questionam a  responsabilização das plataformas digitais por conteúdos de terceiros e a possibilidade de remoção de material ofensivo a pedido dos ofendidos, sem a necessidade de ordem judicial.

Os ministros iniciaram o julgamento do tema em 2024, quando Dias Toffoli, Luiz Fux e Barroso proferiram votos contrários à exigência de notificação judicial para retirada de conteúdo ofensivo. A análise foi suspensa em dezembro, após pedido de vista do ministro André Mendonça, que devolveu o processo para julgamento e apresentou sua manifestação na sessão desta tarde.

Antes de iniciar a leitura do voto, Mendonça avisou que não concluirá sua manifestação nesta quarta-feira. Ele explicou que seu parecer traz um panorama amplo sobre o tema, o que torna a análise mais extensa. Por isso, a conclusão do voto ficará para a sessão de quinta-feira (5), quando, segundo o ministro, será revelado seu posicionamento.

Conteúdo publicado por terceiros

No Recurso Extraordinário 1037396, relatado pelo ministro Dias Toffoli, o Facebook questiona a decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da  rede social.

Uma usuária do Facebook entrou com uma ação judicial contra a  empresa responsável pela rede social após descobrir que alguém criou um perfil falso usando seu nome. Ela pediu, no processo, que a página fake fosse excluída; que fosse revelado o número do IP usado para criar esse perfil, a fim de identificar o responsável; e uma indenização por danos morais, por ter sua imagem exposta indevidamente.

O juiz do TJSP concordou parcialmente com a autora e determinou a exclusão do perfil falso, além de obrigar o Facebook a informar o IP usado para criar o fake. Por outro lado, negou a indenização por danos morais, entendendo que não seria o caso. Diante disso, as duas partes envolvidas no processo entraram com recurso. 

A autora recorreu para pedir a indenização por danos morais. Já o pedido do Facebook era para não precisar fornecer o IP. O juiz acatou ambos os pedidos e criticou a interpretação restritiva do artigo 19 do Marco Civil da Internet, que diz que os provedores só são responsabilizados se não retirarem conteúdo após ordem judicial.

O tribunal paulista entendeu que se isso fosse aplicado de forma automática, a vítima, ou consumidor, como é denominado no processo, ficaria em desvantagem, pois teria que obrigatoriamente entrar na Justiça para resolver algo que o provedor poderia solucionar administrativamente. De acordo com o juiz, isso violaria os direitos do consumidor, reservados pela Constituição e, por isso, o dispositivo seria inconstitucional

Frente a esse entendimento, o Facebook recorreu ao STF para rever a determinação de pagar indenização e a suposta inconstitucionalidade do artigo do Marco Civil da Internet. De acordo com a empresa, essa decisão representa um grave abalo à segurança jurídica, pois rompe com a legislação até então vigente de que os provedores só poderiam ser responsabilizados civilmente por conteúdos gerados por terceiros após ordem judicial específica.

Segundo o Facebook, a decisão e entendimento do TJSP poderiam gerar consequências econômicas significativas para todos os provedores de aplicações de internet no Brasil, que passariam a correr o risco de serem responsabilizados por qualquer conteúdo publicado por terceiros. Para se protegerem, essas empresas se veriam obrigadas a agir como censores, algo que a lei expressamente reservou ao Poder Judiciário, o que violaria o princípio da liberdade de expressão.

A empresa argumentou também que a questão possui transcendência social, por conta do efeito multiplicador da decisão — potencial de afetar múltiplos casos semelhantes —  e da importância da internet na vida moderna.

Dessa forma, o Facebook defendeu, no recurso apresentado ao STF, a constitucionalidade do artigo 19 do Marco Civil, ressaltando que a norma foi construída com base em princípios como a vedação à censura, a liberdade de expressão e a reserva de jurisdição. Portanto, o provedor só poderia ser responsabilizado civilmente se, após ordem judicial, não retirasse o conteúdo considerado ilícito.

Sobre isso, o ministro Dias Toffoli, relator da ação, negou provimento ao recurso, pois, segundo ele, o modelo atual, estabelecido pelo referido artigo do Marco Civil da Internet, confere imunidade às plataformas digitais e, por isso, é inconstitucional. O relator propõe que a responsabilização para casos de conteúdo publicado por terceiros se baseie em outro dispositivo da lei, o artigo 21, que prevê a retirada do conteúdo mediante simples notificação.

Conteúdo ofensivo 

O RE 1057258, relatado pelo ministro Luiz Fux, trata de caso semelhante. No recurso, o Google Brasil contestou uma decisão da Justiça de Minas Gerais que a responsabilizou por não excluir do Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais.

Em 2017, uma professora recorreu à Justiça após ser informada por seus alunos da existência de uma página no Orkut com comentários ofensivos à sua pessoa.

De acordo com a petição inicial, a mulher não se importou com a movimentação, achando se tratar de uma brincadeira inocente de algum aluno ou ex-aluno. Entretanto, esta comunidade se tornou conhecida nas escolas em que trabalhava, gerando constrangimento.

A professora pediu a exclusão da página no Orkut e o pagamento por danos morais. Nos autos do processo, o Google alegou que não poderia ser responsabilizado por um perfil considerado ofensivo, já que ela não o criou nem publicou o conteúdo, sendo esse de responsabilidade de terceiros.

Entretanto, a justiça mineira rejeitou esse argumento e entendeu que houve omissão do provedor do Google, que não atendeu ao pedido da vítima para remover o conteúdo ofensivo.

Por isso, determinou que a empresa indenizasse a vítima, sob o argumento de que, ao oferecer um serviço que permite a publicação livre de mensagens na internet, sem mecanismos mínimos de controle ou de identificação dos autores, a plataforma assume os riscos inerentes a essa atividade. Dessa forma,  deve ser responsabilizada objetivamente — ou seja, independentemente de culpa —, conforme previsto no Código de Defesa do Consumidor.

O juiz ainda destacou que o fato de a plataforma não ter criado o conteúdo ofensivo não a isenta de responsabilidade, já que ela deve desenvolver meios de impedir que materiais que violem direitos, como a imagem das pessoas, sejam divulgados. Isso significa que o site deve manter regras e fiscalização sobre o que é postado, com base nas próprias políticas que estabelece.

O Google, por outro lado, argumentou que essa exigência de fiscalização se configura como censura prévia, proibida pela Constituição. Afirmou que tal entendimento viola a liberdade de expressão, o direito à informação e o princípio da reserva de jurisdição — segundo o qual apenas o Poder Judiciário poderia decidir sobre conteúdos subjetivos ou ofensivos.

Diante disso, o juiz da 1ª Turma Recursal Cível da Comarca de Belo Horizonte reconheceu a necessidade de se definir, na ausência de regulamentação específica sobre o tema, se os princípios constitucionais por si só seriam suficientes para impor às plataformas digitais o dever de monitorar e remover conteúdos ofensivos sem decisão judicial.

O tema chegou ao STF, tendo em vista que, no entendimento das partes, essa discussão possui relevância ampla, pois afeta inúmeros casos semelhantes em tramitação na Justiça.

Nesse sentido, o Google pede ao STF que analise se a empresa que hospeda sites na internet tem o dever de fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem necessidade de intervenção do Judiciário. 

A Procuradoria-Geral da República (PGR) chegou a analisar o caso. No documento encaminhado ao STF, o órgão recomenda a rejeição do recurso apresentado pelo Google, pois o provedor, ao ser informado de que algum site está veiculando fato antijurídico e infamante, deve coibir a prática.

“Não o fazendo, estará atuando com evidente culpa e sua responsabilidade será solidária com o autor do conteúdo” , opinou o subprocurador-Geral Wagner De Castro Mathias Netto, que assinou a manifestação. 

O ministro Fux, relator do caso, propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que forem notificadas, e o material só poderá ser republicado com autorização judicial. 

O magistrado defendeu que, em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de notificação.

Responsabilização parcial 

O ministro Luís Roberto Barroso votou pela responsabilização parcial das plataformas digitais. Para o magistrado, as redes sociais devem retirar postagens com conteúdo envolvendo pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia, mas somente após serem notificadas pelos envolvidos.

No entendimento do presidente da Corte, a remoção de postagens com ofensas e crimes contra a honra dos cidadãos só pode ocorrer após decisão judicial, ou seja, como ocorre atualmente.

Barroso considera que a regra do Marco Civil sobre a responsabilização das plataformas digitais por conteúdos de terceiros, não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia. Por isso, para o ministro, o dispositivo é parcialmente inconstitucional.



IG Último Segundo