Durante o primeiro dia da audiência pública promovida pelo STF (Supremo Tribunal Federal) sobre o Marco Civil da Internet, que ocorreu em Brasília nesta terça-feira, 28, as plataformas digitais reforçaram que fazem o combate proativo de eliminar conteúdos ilegais e desinformação e negaram que sejam omissas. Disseram também que aumentar a responsabilidade direta das big techs não tornará a Internet um ambiente mais seguro.

A audiência discutiu a responsabilidade das plataformas digitais sobre o conteúdo gerado por seus usuários e, a partir daí, a legitimidade do artigo 19 do Marco Civil da Internet, que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de Internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros.

Porém, Meta defendeu que a empresa não espera uma ordem judicial para remover conteúdos explicitamente danosos.

Meta; Audiência pública

Rodrigo Martins, gerente jurídico do Facebook Brasil. Imagem: reprodução de vídeo

Existe uma premissa de inércia de que as plataformas não fariam o suficiente para barrar esses conteúdos. Defendemos a constitucionalidade do artigo 19, mas apoiamos o salutar debate sobre a regulamentação complementar”, disse Rodrigo Martins, gerente jurídico do Facebook Brasil. “Evidentemente reconhecemos que mais pode ser feito pelas plataformas diante da escala de nossos serviços. Proibir determinados conteúdos não vai significar uma incidência zero desses conteúdos, mas a Meta está comprometida a seguir aprimorando esse sistema. Não houve omissão da empresa no combate a conteúdos violadores no período das eleições de 2022 e no 8 de janeiro”, afirmou.

Como defesa, o advogado de Meta apresentou alguns números. Durante o primeiro turno das eleições de 2022, a Meta removeu 135 mil anúncios de natureza eleitoral de suas plataformas. Foram, ainda, excluídos 3 milhões de conteúdos no Facebook e Instagram por violações às políticas que vedam conteúdo violento, de incitação à violência e discursos de ódio entre agosto de 2022 e janeiro de 2023. Foram conteúdos removidos de forma proativa, sem a necessidade de intervenção do poder judiciário, com temas como pedidos de intervenção militar e demais tentativas de subversão ao estado democrático de direito.

Google; audiência pública do STF

Guilherme Cardoso Sanches, advogado do Google. Imagem: reprodução de vídeo

O advogado do Google, Guilherme Cardoso Sanches, também defendeu a legalidade do artigo 19. “É um mito supor que o artigo 19 do Marco Civil seria a razão pela qual ainda se podem encontrar conteúdos nocivos ou ilegais na Internet. Nós do Google não esperamos que haja uma decisão judicial para remover esse tipo de conteúdo das nossas plataformas. Pelo contrário. Removemos em eficiência e larga escala conteúdos que violam as políticas das nossas plataformas”, disse. E defendeu sua teoria com números.

No Brasil, o YouTube removeu 1 milhão de vídeos em 2022 por violarem políticas contra desinformação, assédio, discurso de ódio, segurança infantil e violência. Em contrapartida, o número de requisições judiciais para a retirada de conteúdo foi de 1.724 no mesmo período e para todas as plataformas da empresa, não somente para o aplicativo de vídeo.

“As nossas políticas são atualizadas e aperfeiçoadas continuamente para incorporar diversos tipos de conteúdo que embora não sejam necessariamente ilegais, podem causar danos reais às pessoas. Por exemplo: as políticas do YouTube contra discurso de ódio proíbem discriminação com base em fatores como idade e classe social, que não estão expressamente previstas na legislação. Criamos regras específicas para remover desinformação sobre Covid-19, seguindo as orientações da OMS. Também adotamos políticas que resultaram na remoção de milhares de conteúdos que negavam os resultados das eleições de 2014, 2018 e 2022 no Brasil”.

Ambas as plataformas negaram que seus modelos de negócio são baseados neste tipo de conteúdo. “Conteúdos ilícitos e danosos não nos trazem benefícios econômicos Esse tipo de conteúdo corrói a confiança do público e dos anunciantes”, disse Sanches.

“O modelo de negócio jamais vai prosperar em um ambiente tóxico. É preciso deixar muito claro: a integridade é uma parte extremamente relevante no modelo de negócio. Afinal, os anunciantes jamais buscariam vincular suas marcas a conteúdos indesejados ou investir em plataformas que permitissem esse vale-tudo”, disse em sua fala Martins.

TikTok; audiência pública

Fernando Gallo, diretor de políticas públicas do TikTok Brasil. Imagem: reprodução de vídeo

O TikTok também se defendeu com números como argumentos. Durante as eleições, a plataforma recebeu 90 ordens judiciais que determinaram a remoção de 222 URLs entre fevereiro e 31 de dezembro de 2022. Nesse mesmo período, a rede social removeu 66.020 vídeos proativamente por violarem sua política de desinformação sobre eleições.

Já na semana de 8 a 15 de janeiro deste ano, quando houve a invasão dos três poderes em Brasília, o TikTok recebeu duas ordens judiciais que determinaram a remoção de cinco URLs, “ao passo que nós, proativamente, removemos 10.437 vídeos por violações das nossas políticas de extremismo violento e desinformação. Esses números mostram que não estamos passivos, nem inertes, nem lenientes”, disse Fernando Gallo, diretor de políticas públicas do TikTok Brasil.

O advogado de Meta acredita que a preservação de um ambiente íntegro nas plataformas sofreu e ainda sofre de outras ameaças. Entre os exemplos, citou: medida provisória, devolvida pelo Congresso, que buscava impedir ou dificultar a moderação e o PL em discussão que visa criar uma espécie de imunidade para autoridades na Internet. “E temos também ações judiciais que buscam limitar medidas legítimas de moderação de conteúdo. Essas são ameaças que devem ser combatidas de modo a incentivar uma autorregulação eficaz, coerente e transparente pelas plataformas”, complementou.

O advogado acredita que a declaração de inconstitucionalidade do artigo 19 do MCI levaria a um aumento considerável da remoção de conteúdos subjetivos, mesmo sem violar a lei ou as políticas das plataformas, “mas como uma forma de mitigação de riscos jurídicos pelas plataformas”, explicou. “O efeito inibidor já é conhecido na doutrina internacional e poderia levar ao comprometimento da liberdade de expressão e tornaria a Internet no Brasil menos dinâmica e inovadora”, complementou.

“A opção do legislador no artigo 19 foi respaldada em nobres princípios constitucionais como a liberdade de expressão, a livre iniciativa, a vedação à censura, mas sabemos que ele sofrerá críticas nesta audiência. Nossa opinião é que essas críticas estão numa seara de conveniência, numa opção por outros regimes ou na criação de regras complementares. Meta apoia e reconhece a necessidade de regulação complementar às plataformas”, concluiu.

O representante do TikTok alertou que caso o STF venha, eventualmente, decidir que o artigo 19 é inconstitucional – tornando as plataformas corresponsáveis por conteúdos sem estabelecer parâmetros ou critérios objetivos para as notificações –, haverá um risco de litigância, com incentivo para a remoção de um volume muito maior de conteúdos, incluindo os legítimos.

“Todos os dias, em média, 18, 5 mil vídeos são denunciados por pessoas que usam a plataforma, ou 6,66 milhões denunciados por ano. Avaliamos cada uma dessas denúncias e atuamos de acordo. Uma parte desses conteúdos é violativo e, portanto, moderado. Outra parte é de conteúdo legítimo e que, portanto, permanece no ar”, completou.

Twitter; audiência pública do STF

Jacqueline Abreu, consultora jurídica do Twitter Brasil. Imagem: reprodução de vídeo

Jacqueline Abreu, consultora jurídica do Twitter Brasil, lembrou que o artigo 19 existe para proteger os direitos fundamentais dos usuários da Internet. Em particular a liberdade de expressão e de informação e que o regime de responsabilização das plataformas instituído por ele é só um meio para esse fim. Em sua fala, abordou a importância das redes sociais para o exercício da liberdade de expressão e de informação de forma descentralizada, pondo fim ao monopólio do discurso dos meios tradicionais de massa, que antes detinham esse poder.

“Nunca se exerceu a liberdade de expressão como hoje, dando-se a capacidade de pessoas comuns, inclusive de grupos historicamente desfavorecidos que não tinham visibilidade em outros meios de comunicação, de exercerem a liberdade de opinião, crítica e de criação. Não se pode ignorar esse resultado mais tangível do Marco Civil como uma política pública. Garantir que a desigualdade política e econômica, que são tão marcantes na sociedade brasileira, não sejam instrumentalizadas pelos mais poderosos como uma ferramenta de censura”.