O ministro André Mendonça, do STF, concluiu nesta quinta-feira, 5, a apresentação de seu voto sobre a interpretação do Marco Civil da Internet, propondo aspectos para delimitar quais seriam os deveres das plataformas digitais quando o conteúdo gerado pelos usuários for ilícito. Em síntese, ele defende uma “autorregulação regulada”, ou seja, dispor de “mecanismos para aferir a responsabilidade”. 

O STF analisa a constitucionalidade de dispositivos do Marco Civil da Internet, principalmente o Artigo 19, trecho da lei que condiciona a responsabilização de eventuais danos decorrentes de conteúdos ilícitos veiculados nas redes a situações em que, após uma ordem judicial específica, a plataforma não toma as providências para remover a postagem ou anúncio em questão.

Para Mendonça, o Artigo 19 é legítimo, mas deve ser fixada uma interpretação conforme a Constituição que considere algumas exceções, além de definições, “diante da vastidão do universo de serviços e aplicações de internet abarcadas” na legislação. Veja ponto a ponto:

Apps de mensagens

O ministro entende que apps de mensagem, como Telegram e WhatsApp, “não podem ser equiparados à mídia social”. “Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na internet”.

Redes sociais

Sugere-se, como regra geral, proibir a remoção ou suspensão de perfis de usuários, mas com exceção dos seguintes casos:

  • quando “comprovadamente falsos, seja porque relacionados à pessoa que efetivamente existe, mas que, ao saber da falsidade, denuncia com a devida comprovação que não utiliza” aquela conta, ou “não criou aquele perfil”, ou quando se tratar de ‘perfis-robôs’”; e
  • quando “o próprio perfil tem como objeto direto a prática de atividade criminosa”.

O magistrado entende que o conjunto de leis aplicadas no país já exige a retirada de alguns conteúdos mesmo sem ordem judicial, como é o caso de crimes contra crianças e adolescentes, nudez ou de atos sexuais de caráter privado, e até mesmo as plataformas de bets ilegais.  Para esses casos, seja a remoção efetuada por expressa determinação legal ou conforme previsto nos termos ou condições de uso das plataformas, a tese prevê que “é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário” o seguinte:

  • acesso às motivações da decisão que ensejou a exclusão do conteúdo;
  • que essa exclusão seja feita preferencialmente por ser humano, admitindo-se o uso excepcional de robôs e inteligência artificial no comando da exclusão;
  • que se possa recorrer da decisão de moderação;
  • que se obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais. 

Buscas, marketplaces e outros

Na regra mais ampla, abarcando as “plataformas em geral, tais como mecanismos de busca ou marketplaces”, Mendonça propõe apenas o “dever de promover a identificação do usuário violador do direito de terceiro”.

“Observado o cumprimento da referida exigência [identificação do usuário], o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial”, afirmou o ministro. 

Casos de omissão

Por fim, entende, ainda, que “as plataformas digitais não podem ser responsabilizadas diretamente pela ausência da remoção de conteúdo veiculado por terceiro, ainda que posteriormente venha o Judiciário a determinar a necessidade dessa remoção”. Contudo, também há algumas ponderações. 

Mendonça discorre sobre haver a “possibilidade de responsabilização por conduta omissiva ou comissiva própria pelo descumprimento dos deveres procedimentais” impostos pelas leis que já estão em vigor, entre elas, observando:

  • a “obrigação de aplicação isonômica em relação a todos os usuários das regras de conduta estabelecidos por seus termos e condições de uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral”; 
  • e “a adoção de mecanismos de segurança digital para evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas”. 

Órgão regulador

Assim como outros ministros já fizeram, Mendonça apoia incluir na decisão do STF um apelo para que o Congresso Nacional aprove uma lei sobre a responsabilidade das plataformas digitais. 

Neste ponto, já fora da leitura do voto, o ministro reconheceu que a pergunta sobre qual seria o órgão responsável pela regulação “não é simples de responder”, mas ele entende que a Controladoria-Geral da União poderia cumprir papel de auditorias. De toda forma, defende que a definição da entidade, que deve ser “independente”, seja feita pelo Poder Executivo.

Acesse aqui a síntese da tese compartilhada pelo STF.

Próximos passos

Mendonça é o autor do pedido de vistas – mais tempo para análise – que suspendeu a votação em dezembro do ano passado. Com a apresentação do voto-vista, o ministro do STF, Luís Roberto Barroso, prevê a continuidade do debate para 11 de junho.

Além de Mendonça, os votos já apresentados são de Barroso e os relatores Dias Toffoli (que cuida de recurso do Facebook) e Luiz Fux (que analisa recurso do Google), todos com teses que possuem algum ponto de divergência entre elas. O presidente da Corte comentou nesta tarde que deve esquematizar um comparativo dos posicionamentos realizados até o momento para o prosseguimento da discussão.

Imagem principal: Ministro André Mendonça nesta quinta-feira, 5. Foto: Gustavo Moreno/STF

 

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!

E siga o canal do Mobile Time no WhatsApp!