STF suspende julgamento sobre regulação das big techs

Publicidade

O Supremo Tribunal Federal (STF) suspendeu nesta quinta-feira (28) o julgamento sobre o regime de responsabilidade das plataformas digitais e a validade de regras do Marco Civil da Internet. A análise será retomada na próxima quarta (4).

Até o momento, o relator de um dos processos sobre o tema, ministro Dias Toffoli, começou a apresentar seu voto. Ele vai retomar a leitura na próxima semana.

A Corte julga dois processos sobre o assunto. O outro caso é relatado por Luiz Fux, que será o segundo a votar.

Toffoli disse no voto que é preciso uma atualização do regime de responsabilidade das plataformas, passados mais de 10 anos de vigência do Marco Civil da Internet. “Não se pode mais ignorar a necessidade de sua atualização”, afirmou o ministro.  

“Tal necessidade fica mais evidente quando se tem em conta os riscos sistêmicos ao próprio direito, à liberdade de expressão, aos direitos fundamentais da igualdade e da preservação da dignidade da pessoa humana, ao princípio democrático e ao estado de direito, e à segurança e ordem pública, criados ou potencializados a partir da popularização de algumas dessas tecnologias internet-dependentes, e sobretudo da automação e da algoritmização dos ambientes digitais”, declarou. 

O Marco Civil da Internet é uma lei de 2014 que estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.

Análise

A Corte julga dois recursos, apresentados por Facebook e Google. As empresas questionam as regras para funcionamento das plataformas e o regime de responsabilidade sobre conteúdos postados por usuários. 

Os casos têm repercussão geral reconhecida, ou seja, o que for definido valerá para todos os casos semelhantes na Justiça. 

O recurso do Facebook foi apresentado após a plataforma ter sido condenada a indenizar uma dona de casa que foi vítima de um perfil falso com conteúdo ofensivo.  

O recurso do Google discute o caso de uma professora que pediu a retirada de uma comunidade do Orkut com conteúdo pejorativo contra ela. A questão nesse caso é se a empresa hospedeira do conteúdo tem ou não a obrigação de fiscalizar e retirar conteúdo do ar. 

Como é hoje

Atualmente, o Marco Civil da Internet só responsabiliza civilmente as plataformas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo postado por usuários. A garantia está no artigo 19 da lei.

A responsabilidade civil envolve o dever de indenizar eventuais danos, por exemplo.

Pela lei, só existem duas exceções a esse comando: divulgação de imagens ou vídeos com cenas de nudez ou atos sexuais de caráter privado ou para violação de direitos autorais. Nesses casos, a plataforma deve remover o conteúdo a partir de notificação extrajudicial.

AGU

O advogado-geral da União, Jorge Messias, defendeu aumentar a responsabilidade das plataformas digitais para os casos de conteúdos ilícitos postados pelos seus usuários. 

Na tribuna do Supremo, Messias pediu a inconstitucionalidade do artigo 19 do Marco, que trata do regime de responsabilidade. A posição difere daquela apresentada pelo órgão em setembro, quando pediu para participar dos processos para colaborar com informações.  

Naquela ocasião, a manifestação foi para manter como válido o artigo 19 da lei, dando a ele uma interpretação que aumente a atuação das redes sociais para monitorar e derrubar um rol de conteúdos considerados ilícitos, como criação de perfis falsos, desinformação ou crimes. 

Agora, essa posição foi apresentada como um pedido secundário, para o caso de o STF entender que não deve derrubar o artigo 19.  

Nesse cenário, a AGU defende que as plataformas tenham o dever de moderar e remover conteúdo ilícito e ilegal. O órgão também sugere que a rede social possa ser responsabilizada caso se omita após receber uma notificação extrajudicial em situações que envolvem invasão de perfis ou criação de perfis falsos.  

Big techs

Facebook e Google se manifestaram na quarta-feira (27). As big techs admitiram a possibilidade de um aumento de responsabilidade das plataformas sobre publicações que envolvam conteúdos relacionados a tentativa de golpe de Estado ou de abolição violenta do Estado de Direito. 

As duas companhias defendem o modelo atual de regulação do setor, e pedem que o Supremo confirme sua validade. 

Ambas, no entanto, fizeram proposições caso a Corte decida que é preciso mudar a atual forma de tratamento do assunto. 

 Elas admitem uma responsabilidade maior para um rol limitado de temas e só para publicações em que se seja possível identificar objetivamente crimes ou condutas irregulares previstas em lei. 

Além de golpe, foram citados casos como terrorismo e abuso infantil, por exemplo. 

O que muda com a decisão do STF sobre CLT para servidor público?

Política – Confira notícias da Editoria | CNN Brasil

Compartilhe essa Notícia:

publicidade

publicidade

plugins premium WordPress