O ministro André Mendonça, do STF, concluiu nesta quinta-feira, 5, a apresentação de seu voto sobre a interpretação do Marco Civil da Internet, propondo aspectos para delimitar quais seriam os deveres das plataformas digitais quando o conteúdo gerado pelos usuários for ilícito. Em síntese, ele defende uma “autorregulação regulada”, ou seja, dispor de “mecanismos para aferir a responsabilidade”.
O STF analisa a constitucionalidade de dispositivos do Marco Civil da Internet, principalmente o Artigo 19, trecho da lei que condiciona a responsabilização de eventuais danos decorrentes de conteúdos ilícitos veiculados nas redes a situações em que, após uma ordem judicial específica, a plataforma não toma as providências para remover a postagem ou anúncio em questão.
Para Mendonça, o Artigo 19 é legítimo, mas deve ser fixada uma interpretação conforme a Constituição que considere algumas exceções, além de definições, “diante da vastidão do universo de serviços e aplicações de internet abarcadas” na legislação. Veja ponto a ponto:
Apps de mensagens
O ministro entende que apps de mensagem, como Telegram e WhatsApp, “não podem ser equiparados à mídia social”. “Em relação a tais aplicações de internet, prevalece a proteção à intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na internet”.
Redes sociais
Sugere-se, como regra geral, proibir a remoção ou suspensão de perfis de usuários, mas com exceção dos seguintes casos:
- quando “comprovadamente falsos, seja porque relacionados à pessoa que efetivamente existe, mas que, ao saber da falsidade, denuncia com a devida comprovação que não utiliza” aquela conta, ou “não criou aquele perfil”, ou quando se tratar de ‘perfis-robôs’”; e
- quando “o próprio perfil tem como objeto direto a prática de atividade criminosa”.
O magistrado entende que o conjunto de leis aplicadas no país já exige a retirada de alguns conteúdos mesmo sem ordem judicial, como é o caso de crimes contra crianças e adolescentes, nudez ou de atos sexuais de caráter privado, e até mesmo as plataformas de bets ilegais. Para esses casos, seja a remoção efetuada por expressa determinação legal ou conforme previsto nos termos ou condições de uso das plataformas, a tese prevê que “é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário” o seguinte:
- acesso às motivações da decisão que ensejou a exclusão do conteúdo;
- que essa exclusão seja feita preferencialmente por ser humano, admitindo-se o uso excepcional de robôs e inteligência artificial no comando da exclusão;
- que se possa recorrer da decisão de moderação;
- que se obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.
Buscas, marketplaces e outros
Na regra mais ampla, abarcando as “plataformas em geral, tais como mecanismos de busca ou marketplaces”, Mendonça propõe apenas o “dever de promover a identificação do usuário violador do direito de terceiro”.
“Observado o cumprimento da referida exigência [identificação do usuário], o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial”, afirmou o ministro.
Casos de omissão
Por fim, entende, ainda, que “as plataformas digitais não podem ser responsabilizadas diretamente pela ausência da remoção de conteúdo veiculado por terceiro, ainda que posteriormente venha o Judiciário a determinar a necessidade dessa remoção”. Contudo, também há algumas ponderações.
Mendonça discorre sobre haver a “possibilidade de responsabilização por conduta omissiva ou comissiva própria pelo descumprimento dos deveres procedimentais” impostos pelas leis que já estão em vigor, entre elas, observando:
- a “obrigação de aplicação isonômica em relação a todos os usuários das regras de conduta estabelecidos por seus termos e condições de uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral”;
- e “a adoção de mecanismos de segurança digital para evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas”.
Órgão regulador
Assim como outros ministros já fizeram, Mendonça apoia incluir na decisão do STF um apelo para que o Congresso Nacional aprove uma lei sobre a responsabilidade das plataformas digitais.
Neste ponto, já fora da leitura do voto, o ministro reconheceu que a pergunta sobre qual seria o órgão responsável pela regulação “não é simples de responder”, mas ele entende que a Controladoria-Geral da União poderia cumprir papel de auditorias. De toda forma, defende que a definição da entidade, que deve ser “independente”, seja feita pelo Poder Executivo.
Acesse aqui a síntese da tese compartilhada pelo STF.
Próximos passos
Mendonça é o autor do pedido de vistas – mais tempo para análise – que suspendeu a votação em dezembro do ano passado. Com a apresentação do voto-vista, o ministro do STF, Luís Roberto Barroso, prevê a continuidade do debate para 11 de junho.
Além de Mendonça, os votos já apresentados são de Barroso e os relatores Dias Toffoli (que cuida de recurso do Facebook) e Luiz Fux (que analisa recurso do Google), todos com teses que possuem algum ponto de divergência entre elas. O presidente da Corte comentou nesta tarde que deve esquematizar um comparativo dos posicionamentos realizados até o momento para o prosseguimento da discussão.
Imagem principal: Ministro André Mendonça nesta quinta-feira, 5. Foto: Gustavo Moreno/STF