Entrou em vigor no último dia 1º de julho uma lei na Califórnia que obriga os bots a se identificarem a seus interlocutores. A regra vale apenas para bots com propósito de venda de produtos ou serviços e para bots com objetivos eleitorais. Caso não deixe claro que se trata de um robô, a empresa responsável pelo bot está sujeita a multa. As plataformas online ou servidores onde o bot opera (por exemplo, Facebook, WhatsApp etc), não estão sujeitas a qualquer sanção.

A Califórnia é o primeiro estado norte-americano a publicar uma lei sobre o uso de bots. É também uma das primeiras leis do gênero no mundo, se não for a primeira. Originalmente, a ideia era que fosse mais ampla e valesse para qualquer bot, mas a pressão de algumas associações em favor da liberdade de expressão nos EUA conseguiu fazer com que se limitasse a bots de vendas e bots eleitorais, como relata matéria da revista New Yorker.

O texto da lei diz o seguinte: “É proibido a qualquer pessoa usar um bot para se comunicar ou interagir com outra pessoa de forma online na Califórnia com o intuito de enganá-la sobre a identidade artificial (…) para incentivar a compra ou venda de mercadorias ou serviços em uma transação comercial ou para incentivar o voto em uma eleição.”

Análise

A legislação existente em muitos países, incluindo o Brasil, em tese, quase tudo de ilegal que um bot poderia fazer. Calúnias e difamações, por exemplo, são passíveis de processo judicial, ainda que transmitidas por um bot. Da mesma forma, a oferta de um produto vendido por um bot não pode infringir o Código de Defesa do Consumidor. E, no caso de eleições, empresas não podem pagar pelo disparo de mensagens para promover nenhum candidato, pois o financiamento empresarial de campanhas está proibido. Contudo, obviamente, não se trata de punir o bot, mas seu responsável, cuja identificação nem sempre é fácil.

Por outro lado, há questões em aberto e que merecem ser debatidas, como a exigência da identificação do bot como tal, justamente o ponto central da lei californiana.

Além disso, se for um bot capaz de aprender sozinho, ou seja, dotado de inteligência artificial com mecanismos de “machine learning”, há diversas outros pontos a serem refletidos. Como evitar que bots reproduzam preconceitos sociais? De quem é a responsabilidade se um bot cometer uma infração para o qual não foi originalmente programado, mas que aprendeu sozinho? Quais deveriam ser os limites – se é que deveria haver algum – para a atuação de bots com machine learning?

A importância da definição de princípios éticos no desenvolvimento de inteligência artificial foi tema de uma extensa matéria publicada por Mobile Time no mês passado e será debatida por três especialistas durante a próxima edição do Super Bots Experience, em agosto: Marcelo Finger, chefe do departamento de ciência da computação e professor titular de inteligência artificial do IME-USP; Eduardo Magrani, advogado especialista em direito digital e professor da FGV, do IBMEC e da PUC-Rio, autor do livro “Entre dados e Robôs”; e Isabela Ferrari, juíza federal do TRF2 e coordenadora do Instituto New Law. A agenda atualizada do evento e mais informações estão disponíveis no site www.botsexperience.com.br, ou pelo telefone 11-3138-4619, ou pelo email [email protected].