Entrevista26/09/2017 às 15h13

"O modelo de consentimento falhou", diz professor da FGV

Fernando Paiva

“Vivemos em um mundo tecnoregulado. É natural o direito andar atrasado, mas agora está atrasado demais”, critica Eduardo Magrani, professor de direito da FGV Rio, pesquisador do Centro de Tecnologia e Sociedade (CTS), um dos coordenadores do Creative Commons no Brasil e autor do livro "Democracia Conectada", que pode ser baixado de graça em seu site. Em entrevista a Mobile Time, ele defende a urgência de se discutir no Brasil uma lei geral de proteção de dados pessoais e alerta que o advento da Internet das Coisas torna o tema ainda mais importante. Magrani critica ainda o modelo de consentimento usado pela maioria das plataformas digitais para coleta de dados pessoais, através do aceite de longos termos de serviço que ninguém lê. No seu entender, esse modelo falhou e gera uma série de abusos.

Mobile Time - Você é um dos autores de um estudo que comparou os termos de serviço de 50 plataformas digitais. A qual a conclusão chegaram?

Eduardo Magrani - A maioria das plataformas comete abusos. Os termos de serviço são uma falácia, são uma ficção. O modelo de consentimento falhou. O fato de existir o termo de consentimento não interessa porque ninguém lê. A maioria das plataformas coleta mais dados do que o necessário para o serviço que presta, o que não faz o menor sentido. Mais da metade permite que outras empresas monitorem o usuário dentro da sua plataforma. Mais da metade permite monitorar o usuário dentro de outras plataformas parceiras. E mais da metade não exclui os dados pessoais mesmo depois que usuário cancela o serviço, o que também não faz o menor sentido. Não estamos falando da exceção, mas da regra.

Qual será o impacto da Internet das Coisas (IoT) nesse cenário?

Com a Internet das Coisas vai se intensificar a violação da privacidade, elevando-a a outro patamar. Quanto mais coisas conectadas, mais dados serão gerados sobre as pessoas, e serão dados altamente monetizáveis. Quando temos vários dispositivos conectados, sem uma lei geral de privacidade, abrimos a porteira para abusos sem fim. Os dados são o novo petróleo. Temos uma série de modelos de negócios girando em torno de venda de dados. E o consumidor não tem uma lei para proteger sua privacidade. Fica à mercê dos termos de uso, que são uma balela. Nenhum consumidor que não seja um especialista na área lê os termos de uso. Acontecem abusos diariamente na contratação digital, o que coloca em xeque toda a proteção da privacidade.

O Brasil ainda não tem uma lei geral de proteção de dados pessoais. Como estamos em relação ao resto do mundo?

O Brasil está extremamente atrasado. É um dos poucos da América Latina que não tem uma lei geral de proteção da privacidade. A Argentina tem há décadas. A Europa faz atualizações bienais. Esse tema era urgente em 2010. Agora com IoT e hiperconectividade fica mais urgente ainda.

Há iniciativas não governamentais para devolver ao usuário o controle sobre seus dados. Poderia falar sobre elas?

Conheço HATDeX, MyData e DigitalMe. São três modelos, todos com funcionamento parecido: o consumidor tem acesso a um pool de informações sobre si e define se elas podem ou não ser gerenciadas por terceiros, da mesma forma que um banco guarda o nosso dinheiro mas é a gente que decide o que fazer com ele. Esse pool é transparente para o consumidor, que escolhe para quem vende e por quanto. O objetivo é devolver ao usuário esse controle. Mas será que as pessoas vão ter interesse em autogerenciar seus dados em larga escala? A adesão a essas plataformas ainda é embrionária. Ao mesmo tempo, Facebook e outros gigantes não estão interessados que isso avance, pois é disruptivo para o seu modelo de negócios. De todo modo, o primeiro passo é as pessoas terem consciência dos seus dados e saberem seu valor. Hoje vendem seus dados para apps gratuitos. É aquela velha história: se um serviço é gratuito significa que o produto é o consumidor, são seus dados.

O Brasil pelo menos tem o Marco Civil da Internet…

O Marco Civil foi altamente vanguardista. Fizemos uma constituição da Internet, enquanto o resto do mundo discutia coisas pontuais, como neutralidade de rede e direito ao esquecimento. Conseguimos apoio da  sociedade civil, do governo e da academia. Mas claro que o Marco Civil tem falhas por ter sido pioneiro… Foi o primeiro projeto de lei com consulta pública online no Brasil. Hoje tem vários outros.

Quais são as falhas?

São falhas intrínsecas ao experimentalismo: poucas contribuições, pouca transparência no tratamento dessa contribuições. Já a lei geral de proteção de dados não pode se dar ao luxo desse argumento porque está chegando atrasada. O projeto de lei espelha 95% da regulação europeia, que tem um tratamento muito protetivo da privacidade. O Brasil pode pecar pela defasagem. Uma das críticas que se faz hoje antes da aprovação é a seguinte: será que não é hora de buscarmos discussões de ponta nesse aspecto e inseri-las no texto? Pois aí aproveitaríamos o fato de sermos um dos últimos. Seria bom ter a autorregulação de empresas e não apenas uma proteção top down, por exemplo Isso está em aberto. Outro assunto importante: qual deve ser o balanço entre acesso à informação e privacidade? E anonimato? O anonimato é tema central sobre qualquer discussão sobre proteção de dados, mas falta maturidade neste debate.

O anonimato é um direito do cidadão?

Sim, o anonimato é um direito. Se não há uma lei geral de dados nos protegendo suficientemente, se sou alvo de abusos diários, o anonimato é um direito em um ambiente interconectado. Faltam ferramentas para proteger a nós mesmos e outras coisas ao nosso redor.

Mas no Brasil o anonimato é mal visto, por causa do artigo 5, inciso IV, da Constituição (Nota do editor: Neste inciso, está escrito que “é livre a manifestação de pensamento, sendo vedado o anonimato"). O anonimato deve ser encarado como um direito. Nas manifestações de 2013 as pessoas usaram máscaras para evitar a identificação facial. É legítimo. Mas o referido inciso não é lido dessa forma. O anonimato é pouco maduro. E ainda teve projeto de lei proibindo máscaras. Há uma demonização do anonimato.

Existe uma discussão de criação de novos direitos humanos?

Sim. Seriam o direito à liberdade cognitiva e o direito à privacidade de pensamento. A discussão é nova e surgiu a partir das experiências do Facebook e do Elon Musk com tecnologias para acessar pensamentos. As orientações jurídicas que temos não estão preparadas para a Internet. E a Internet de hoje é diferente daquela de 2003. É um cenário extremamente diverso. O direito não acompanhou esse avanço tecnológico e está perdendo como o Brasil para a Alemanha. Os juízes não estão preparados, porque não tiveram essa matéria na faculdade, porque não caiu no concurso público que fizeram. Temos que pensar em diretrizes éticas para o avanço tecnológico, que não é o que vemos hoje. Quando se fala em uma plataforma que acessa os nossos pensamentos, qual é a ética que norteia isso? Não temos clareza disso. Em grande parte os algoritmos de machine learning são caixas pretas. Não temos ideia de como funcionam. Precisamos buscar maior transparência desses artefatos técnicos que são altamente complexos. Falta maturidade ética para nortear esse avanço, que está chegando a galope. A ideia de monitorar pensamento vai trazer lucro. E possivelmente as pessoas vão incorporar essa novidade sem uma visão crítica porque gera comodidade imediata. Aí entra a responsabilidade dos designers, entra a questão da ética por design. Ao mesmo tempo, como responsabilizar um engenheiro de software se a inovação que ele cria pode gerar resultados inesperados?

Deveria haver um tratado internacional para limitar a inteligência artificial?

Já se pensa em um tratado para impedir robôs autônomos letais.

O que é o “dataism”?

As pessoas acreditam tanto no cruzamento de dados e nos resultados dos algoritmos que permitem que eles tomem decisões importantes no seu lugar. Ou seja, acreditam mais nos algoritmos do que em si mesmos.

Tem que embutir nos algoritmos uma noção de ética. O engenheiro de software quando cria daria um input de ética. Se há um problema que ele poderia resolver no design, ele tem a obrigação de fazê-lo. Mas neste ponto o direito tem que avançar. Tem que ter regulação. Vivemos num mundo tecnoregulado. Isso significa que estamos sendo mais regulados pela tecnologia do que pelo direito. É natural o direito andar atrasado, mas agora está atrasado demais.

O que pensa sobre a proliferação dos bots?

Na esfera pública agora temos interação com bots. Há redes de não-humanos interagindo com humanos. As pessoas interagem com bots no Twitter e não sabem que são bots. As pessoas não sabem mas estão interagindo maciçamente com robôs. E tem vários resultados de eleições influenciados por bots. Teve partido no Brasil que investiu mais de R$ 10 milhos em bots no Twitter nas últimas eleições. E isso funciona, você consegue furar as bolhas. Um bot manda mais de duas mensagens por segundo no Twitter e no Facebook. Qual é o impacto democrático desses agentes não-humanos? O primeiro passo é identificar que estamos nos deparando com um novo tipo de tecnologia que tem muito mais autonomia.

Você usa Facebook, Twitter, WhatsApp e afins?

Eu uso tudo. Tenho que testar.