
O STF iniciou o julgamento do tema em 2024, mas a análise foi suspensa em dezembro, após pedido de vista do ministro André Mendonça.
O Supremo Tribunal Federal (STF) retomou, na tarde desta quarta-feira (04), o julgamento de dois recursos que questionam algumas regras do Marco Civil da Internet.
Após a Suprema Corte marcar a data da sessão destinada a debater o tema, surgiram críticas, de representantes da sociedade civil e políticos, sobre uma possível regulamentação das redes sociais. Sobre isso, o ministro Luís Roberto Barroso afirmou que o judiciário “não está regulando as plataformas digitais”.
“O judiciário não está legislando e, muito menos, regulando em caráter geral, abstrato e definitivo as plataformas digitais. Nós estamos julgando pretensões que chegaram até este tribunal por via de recursos” , esclareceu o presidente do STF antes do início do julgamento.
A corte analisa os Recursos Extraordinários (REs) 1037396 e 1057258, que contestam o artigo 19 da Lei 12.965/2014, que estabeleceu o Marco Civil da Internet. Nas ações, o Google e o Facebook questionam a responsabilização das plataformas digitais por conteúdos de terceiros e a possibilidade de remoção de material ofensivo a pedido dos ofendidos, sem a necessidade de ordem judicial.
Os ministros iniciaram o julgamento do tema em 2024, quando Dias Toffoli, Luiz Fux e Barroso proferiram votos contrários à exigência de notificação judicial para retirada de conteúdo ofensivo. A análise foi suspensa em dezembro, após pedido de vista do ministro André Mendonça, que devolveu o processo para julgamento e apresentou sua manifestação na sessão desta tarde.
Antes de iniciar a leitura do voto, Mendonça avisou que não concluirá sua manifestação nesta quarta-feira. Ele explicou que seu parecer traz um panorama amplo sobre o tema, o que torna a análise mais extensa. Por isso, a conclusão do voto ficará para a sessão de quinta-feira (5), quando, segundo o ministro, será revelado seu posicionamento.
Conteúdo publicado por terceiros
No Recurso Extraordinário 1037396, relatado pelo ministro Dias Toffoli, o Facebook questiona a decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social.
Uma usuária do Facebook entrou com uma ação judicial contra a empresa responsável pela rede social após descobrir que alguém criou um perfil falso usando seu nome. Ela pediu, no processo, que a página fake fosse excluída; que fosse revelado o número do IP usado para criar esse perfil, a fim de identificar o responsável; e uma indenização por danos morais, por ter sua imagem exposta indevidamente.
O juiz do TJSP concordou parcialmente com a autora e determinou a exclusão do perfil falso, além de obrigar o Facebook a informar o IP usado para criar o fake. Por outro lado, negou a indenização por danos morais, entendendo que não seria o caso. Diante disso, as duas partes envolvidas no processo entraram com recurso.
A autora recorreu para pedir a indenização por danos morais. Já o pedido do Facebook era para não precisar fornecer o IP. O juiz acatou ambos os pedidos e criticou a interpretação restritiva do artigo 19 do Marco Civil da Internet, que diz que os provedores só são responsabilizados se não retirarem conteúdo após ordem judicial.
O tribunal paulista entendeu que se isso fosse aplicado de forma automática, a vítima, ou consumidor, como é denominado no processo, ficaria em desvantagem, pois teria que obrigatoriamente entrar na Justiça para resolver algo que o provedor poderia solucionar administrativamente. De acordo com o juiz, isso violaria os direitos do consumidor, reservados pela Constituição e, por isso, o dispositivo seria inconstitucional
Frente a esse entendimento, o Facebook recorreu ao STF para rever a determinação de pagar indenização e a suposta inconstitucionalidade do artigo do Marco Civil da Internet. De acordo com a empresa, essa decisão representa um grave abalo à segurança jurídica, pois rompe com a legislação até então vigente de que os provedores só poderiam ser responsabilizados civilmente por conteúdos gerados por terceiros após ordem judicial específica.
Segundo o Facebook, a decisão e entendimento do TJSP poderiam gerar consequências econômicas significativas para todos os provedores de aplicações de internet no Brasil, que passariam a correr o risco de serem responsabilizados por qualquer conteúdo publicado por terceiros. Para se protegerem, essas empresas se veriam obrigadas a agir como censores, algo que a lei expressamente reservou ao Poder Judiciário, o que violaria o princípio da liberdade de expressão.
A empresa argumentou também que a questão possui transcendência social, por conta do efeito multiplicador da decisão — potencial de afetar múltiplos casos semelhantes — e da importância da internet na vida moderna.
Dessa forma, o Facebook defendeu, no recurso apresentado ao STF, a constitucionalidade do artigo 19 do Marco Civil, ressaltando que a norma foi construída com base em princípios como a vedação à censura, a liberdade de expressão e a reserva de jurisdição. Portanto, o provedor só poderia ser responsabilizado civilmente se, após ordem judicial, não retirasse o conteúdo considerado ilícito.
Sobre isso, o ministro Dias Toffoli, relator da ação, negou provimento ao recurso, pois, segundo ele, o modelo atual, estabelecido pelo referido artigo do Marco Civil da Internet, confere imunidade às plataformas digitais e, por isso, é inconstitucional. O relator propõe que a responsabilização para casos de conteúdo publicado por terceiros se baseie em outro dispositivo da lei, o artigo 21, que prevê a retirada do conteúdo mediante simples notificação.
Conteúdo ofensivo
O RE 1057258, relatado pelo ministro Luiz Fux, trata de caso semelhante. No recurso, o Google Brasil contestou uma decisão da Justiça de Minas Gerais que a responsabilizou por não excluir do Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais.
Em 2017, uma professora recorreu à Justiça após ser informada por seus alunos da existência de uma página no Orkut com comentários ofensivos à sua pessoa.
De acordo com a petição inicial, a mulher não se importou com a movimentação, achando se tratar de uma brincadeira inocente de algum aluno ou ex-aluno. Entretanto, esta comunidade se tornou conhecida nas escolas em que trabalhava, gerando constrangimento.
A professora pediu a exclusão da página no Orkut e o pagamento por danos morais. Nos autos do processo, o Google alegou que não poderia ser responsabilizado por um perfil considerado ofensivo, já que ela não o criou nem publicou o conteúdo, sendo esse de responsabilidade de terceiros.
Entretanto, a justiça mineira rejeitou esse argumento e entendeu que houve omissão do provedor do Google, que não atendeu ao pedido da vítima para remover o conteúdo ofensivo.
Por isso, determinou que a empresa indenizasse a vítima, sob o argumento de que, ao oferecer um serviço que permite a publicação livre de mensagens na internet, sem mecanismos mínimos de controle ou de identificação dos autores, a plataforma assume os riscos inerentes a essa atividade. Dessa forma, deve ser responsabilizada objetivamente — ou seja, independentemente de culpa —, conforme previsto no Código de Defesa do Consumidor.
O juiz ainda destacou que o fato de a plataforma não ter criado o conteúdo ofensivo não a isenta de responsabilidade, já que ela deve desenvolver meios de impedir que materiais que violem direitos, como a imagem das pessoas, sejam divulgados. Isso significa que o site deve manter regras e fiscalização sobre o que é postado, com base nas próprias políticas que estabelece.
O Google, por outro lado, argumentou que essa exigência de fiscalização se configura como censura prévia, proibida pela Constituição. Afirmou que tal entendimento viola a liberdade de expressão, o direito à informação e o princípio da reserva de jurisdição — segundo o qual apenas o Poder Judiciário poderia decidir sobre conteúdos subjetivos ou ofensivos.
Diante disso, o juiz da 1ª Turma Recursal Cível da Comarca de Belo Horizonte reconheceu a necessidade de se definir, na ausência de regulamentação específica sobre o tema, se os princípios constitucionais por si só seriam suficientes para impor às plataformas digitais o dever de monitorar e remover conteúdos ofensivos sem decisão judicial.
O tema chegou ao STF, tendo em vista que, no entendimento das partes, essa discussão possui relevância ampla, pois afeta inúmeros casos semelhantes em tramitação na Justiça.
Nesse sentido, o Google pede ao STF que analise se a empresa que hospeda sites na internet tem o dever de fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem necessidade de intervenção do Judiciário.
A Procuradoria-Geral da República (PGR) chegou a analisar o caso. No documento encaminhado ao STF, o órgão recomenda a rejeição do recurso apresentado pelo Google, pois o provedor, ao ser informado de que algum site está veiculando fato antijurídico e infamante, deve coibir a prática.
“Não o fazendo, estará atuando com evidente culpa e sua responsabilidade será solidária com o autor do conteúdo” , opinou o subprocurador-Geral Wagner De Castro Mathias Netto, que assinou a manifestação.
O ministro Fux, relator do caso, propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que forem notificadas, e o material só poderá ser republicado com autorização judicial.
O magistrado defendeu que, em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de notificação.
Responsabilização parcial
O ministro Luís Roberto Barroso votou pela responsabilização parcial das plataformas digitais. Para o magistrado, as redes sociais devem retirar postagens com conteúdo envolvendo pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia, mas somente após serem notificadas pelos envolvidos.
No entendimento do presidente da Corte, a remoção de postagens com ofensas e crimes contra a honra dos cidadãos só pode ocorrer após decisão judicial, ou seja, como ocorre atualmente.
Barroso considera que a regra do Marco Civil sobre a responsabilização das plataformas digitais por conteúdos de terceiros, não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia. Por isso, para o ministro, o dispositivo é parcialmente inconstitucional.
IG Último Segundo