O Supremo Tribunal Federal (STF) retoma, nesta quarta-feira (4), o julgamento conjunto de dois recursos que questionam regras do Marco Civil da Internet (Lei 12.965/2014). As ações discutem a responsabilidade civil das plataformas da internet por conteúdos de terceiros e a possibilidade de remoção de material ofensivo a pedido dos ofendidos, sem a necessidade de ordem judicial.
A análise foi suspensa em dezembro de 2024, após os votos dos ministros Dias Toffoli e Luiz Fux, relatores das ações, e do ministro Luís Roberto Barroso (presidente), todos contrários à exigência de notificação judicial para retirada de conteúdo ofensivo. O julgamento será retomado com voto do ministro André Mendonça.
Casos concretos
No Recurso Extraordinário (RE) 1037396 (Tema 987 da repercussão geral), relatado pelo ministro Dias Toffoli, o Facebook Serviços Online do Brasil Ltda. questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social. Já no RE 1057258 (Temas 533), relatado pelo ministro Luiz Fux, o Google Brasil Internet S.A. contesta decisão que a responsabilizou por não excluir do Orkut uma comunidade criada para ofender uma pessoa e determinou o pagamento de danos morais.
Responsabilidade civil e decisão judicial
No RE 1037396, a discussão é sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. O dispositivo exige ordem judicial prévia e específica de exclusão de conteúdo para que provedores de internet, websites e gestores de redes sociais sejam responsabilizados por danos decorrentes de atos ilícitos praticados por terceiros.
Para o ministro Dias Toffoli, o modelo atual dá imunidade às plataformas e é inconstitucional. Ele propõe que a responsabilização se baseie em outro dispositivo da lei (artigo 21), que prevê a retirada do conteúdo mediante simples notificação.
Retirada de conteúdo ofensivo sem decisão judicial
No RE 1057258, a Google discute se a empresa que hospeda sites na internet tem o dever de fiscalizar o conteúdo publicado e de retirá-lo do ar quando considerado ofensivo, sem necessidade de intervenção do Judiciário. A plataforma argumenta que esse tipo de fiscalização seria impossível e configuraria censura prévia por empresa privada.
Em seu voto, o ministro Fux (relator) propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que foram notificadas, e o material só poderá ser republicado com autorização judicial. Ele defende que, em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de notificação.
Proteção insuficiente
Barroso considera que a regra do Marco Civil sobre a responsabilização das plataformas digitais por conteúdos de terceiros, não dá proteção suficiente a direitos fundamentais, como a dignidade da pessoa humana, e a valores importantes para a democracia. Ele defende que, se a plataforma for notificada de algo que representa crime, como a criação de um perfil falso, a retirada do conteúdo seja imediata.
Audiência pública
As ações foram objeto de audiência pública em que representantes do Executivo, do Legislativo, de plataformas de hospedagem de sites e de entidades da sociedade civil puderam apresentar suas visões sobre os temas e oferecer subsídios técnicos para a decisão a ser tomada pelo STF. (Com informações da Assessoria de Imprensa do STF)