O STF reuniu ministros do Supremo Tribunal Federal, ministros de Estado e outros representantes do governo federal, especialistas e representantes de associações e plataformas digitais para discutir a regulação dos serviços prestados pelas big techs. A audiência pública, que ocorreu nesta terça-feira, 28, revelou uma divisão em dois grupos: 1) aqueles que defendem uma revisão do artigo 19 do Marco Civil da Internet; e 2) aqueles que preferem deixar como está. As plataformas alegam que atuam proativamente contra conteúdos ilícitos e danosos e que uma mudança ou extinção do artigo 19 colocaria em risco a liberdade de expressão da sociedade. Já ministros do STF e de estado defendem regulação mais calibrada e autorregulação.

O artigo 19 do MCI diz o seguinte:

“Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de Internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário.”

O ministro do STF e presidente do TSE, Alexandre de Moraes, reafirmou em sua fala que é preciso melhorar a autorregulação para desinformação assim como foi feito em temas como pedofilia e direitos autorais. “Todos concordam aqui o modelo atual é ineficiente, destrói reputações, dignidades, sem contar a instrumentalização que houve de todas as plataformas e big techs no dia 8 de janeiro. O modelo é falido no mundo todo. Não é possível continuarmos achando que as redes sociais são terra de ninguém. Há uma necessidade de melhoria da autorregulação, da mesma forma que há uma autorregulação para pedofilia, pornografia infantil, direitos autorais, temos que estender essa autorregulação para a questão de atentados contra a democracia”, disse.

Flávio Dino; audiência pública no STF

Ministro da Justiça Flávio Dino em audiência pública no STF. imagem: reprodução de vídeo

O Ministro da Justiça e Segurança Pública, Flávio Dino, reforçou que a regulação não é uma forma de censura, muito pelo contrário, é defender a liberdade de expressão. “Fixar fronteiras entre o uso e o abuso. Por isso, não há nada de exótico, heterodoxo ou pecaminoso neste tribunal ou no Congresso discutir regulação do conteúdo da liberdade de expressão. Liberdade de expressão sem responsabilidade não é responsabilidade de expressão. É crime. É violação de direito. É abuso de direitos”, disse. Dino lembrou ainda que o algoritmo é feito por humanos e que, por isso, é humanamente programado e reprogramável e que deve ser regulado. “Ele está sujeito a questionamentos e obrigado a prestar contas a toda a sociedade, especialmente aos consumidores desses serviços.”

Em sua fala, o deputado federal Orlando Silva, autor do PL das Fake news, explicou que assim como não é admissível na sociedade de hoje a convivência com trabalho escravo, também não é admissível na dinâmica social, cultural e política de hoje um “modelo de negócios que se ancore no extremismo político”. “Não é razoável convivermos em um ambiente que seleciona quem pode ouvir ou não. Quem pode participar do debate público ou não. E daí se formam as bolhas”, explicou o deputado.

“Tenho confiança de que num prazo breve teremos uma norma que sirva de referência para a sociedade brasileira e que vai se somar a um programa de educação midiática e ao acesso à Internet. Porque o povo não tem acesso à Internet. Acesso a fontes confiáveis de informação. E a informação é produzida por jornalismo profissional, com método e técnica. Precisamos oferecer acesso a fontes confiáveis. E, ao mesmo tempo, não podemos impedir que a inovação floresça. É importante valorizar a autorregulação regulada, com parâmetros definidos pela legislação por interpretações da constituição fixadas pelo poder judiciário”, opinou.

Orlando Silva; audiência pública no STF

Deputado Federal Orlando Silva em audiência pública no STF sobre regulação das plataformas digitais. Imagem: reprodução de vídeo

“Transparência das plataformas é um tema central que deve impactar na legislação. A forma de operação desses serviços importa para a dinâmica da sociedade brasileira. O debate que fazemos sobre algoritmos de recomendação que está no núcleo da atividade econômica e que incide sobre a dinâmica social precisa ser de conhecimento público. Há um desafio a meu ver civilizatório. Não é somente econômico”, resumiu.

Em sua fala, Silva também disse que o Brasil poderia se espelhar nas medidas recém-adotadas pelo Ato de Serviços Digitais e o Ato de Mercados Digitais, aprovados na União Europeia. “É importante que o Congresso, de forma célere, delibere para que nós tenhamos parâmetros legais para operação de plataformas digitais no Brasil, inspirados nas boas experiências internacionais onde o dever do cuidado e a análise de riscos sistêmicos possam oferecer um ambiente mais saudável, ao mesmo tempo em que a moderação de conteúdo terá parâmetros bem delineados”, resumiu.

Para João Brant, secretário de políticas públicas da Secretaria de Comunicação Social da presidência da República, o modelo de responsabilidade definido pelo artigo 19 do Marco Civil da Internet vem afetando os direitos individuais e coletivos e a democracia brasileira.

João Brant

João Brant. Imagem: reprodução de vídeo

“O modelo atual autoriza a omissão das plataformas digitais. Elas são desobrigadas de agir contra conteúdos ilegais e nocivos justamente um ambiente no qual apenas elas têm condições de atuar. Não há obrigação de cuidado ou de zelo ou de devida diligência sobre um ambiente no qual gastamos horas por dia, compartilhamos informações, trocamos mensagens privadas e fazemos debates públicos. Não estou aqui deixando de reconhecer todos os esforços citados pelos advogados em relação à moderação de conteúdo. Estou dizendo que o modelo atual gera incentivos que devem ser reconhecidos e enfrentados”, contou.

Por outro lado, Brant acredita que não adianta adotar ações opostas ao regime atual, ou seja, implementar uma responsabilização objetiva às plataformas “poderia trazer consequências problemáticas e igualmente negativas”.

“Entre o modelo atual de responsabilidade praticamente nula e o modelo de total responsabilidade objetiva, há uma gradação de tonalidades que podem garantir arranjos que poderiam produzir um melhor equilíbrio entre direitos a partir de estabelecimentos de deveres de cuidados de devidas diligência para as plataformas, especialmente em conteúdos ilegais ou nocivos que afetem direitos coletivos”, resumiu.