Pela primeira vez a legislação eleitoral terá regras para o uso de inteligência artificial. Não à toa, o tema foi um dos principais assuntos durante a audiência pública realizada de forma híbrida pelo TSE nesta quinta-feira, 25. Entre as sugestões estão: definir o que é IA; responsabilizar o anunciante a passar essas informações; deixar claro o que pode e o que não pode fazer com IA; e informar a finalidade do uso da IA.

O YouTube, por exemplo, sugeriu que os autores de conteúdo criado ou manipulado com inteligência artificial sejam identificados, assim como o tipo de tecnologia utilizada.

Eleições 2024

Alana Rizzo, representante do YouTube na audiência do TSE. Imagem: reprodução de vídeo/Youtube TSE

“É necessário que aqueles que tenham as informações mais precisas sobre o tipo de tecnologia empregada assumam o protagonismo na identificação do conteúdo disponibilizado aos eleitores”, afirmou Alana Rizzo, representante do YouTube

Sobre a responsabilização por parte das plataformas, Rizzo foi categórica: “A criação de uma obrigação às empresas (plataformas digitais) demandaria maior debate e especificações de parâmetros legais mínimos para a atuação das plataformas em observância à garantia de liberdade de expressão”.

O bom uso da inteligência artificial

Eleições 2024

Juliano Maranhão, da Associação Lawgorithm de Pesquisa em Inteligência Artificial. Imagem: reprodução de vídeo/YouTube TSE

Juliano Maranhão, professor da faculdade de direito da USP e representante do Instituto Lawgorithm (Associação Lawgorithm de Pesquisa em Inteligência Artificial), corroborou com a sugestão do YouTube para haver mais transparência nos conteúdos criados e manipulados por IA em áudio e vídeo.

Maranhão sugere que a responsabilidade da informação seja do candidato ou daquela pessoa que produziu o conteúdo. Ele está preocupado de que a IA fique estigmatizada como tecnologia produtora de desinformação: “Temos uma preocupação de que o eleitor acabe identificando que todo e qualquer uso de IA seja uma manipulação fraudulenta, de deep fake. Mas a IA pode ajudar em diversos aspectos, como o cenário de fundo, ilustrações e, com isso, diminuir os custos dos candidatos que tenham menor acesso ao financiamento de campanhas eleitorais. A IA pode contribuir para o processo democrático”, explicou.

Por isso, sugere que os candidatos, além de explicitarem o uso da IA e a metodologia aplicada (já previstas pela lei), também informem a finalidade do uso da IA “de uma maneira que o eleitor possa discernir sobre aquele conteúdo produzido ou manipulado com IA, mas com finalidade legítima, seja na produção de áudio ou de vídeo”.

O representante do Clube Associativo dos profissionais de marketing político (Camp), Bruno Fabrino Hoffmann, também salientou a importância da IA na colaboração do processo eleitoral. Seu uso pode ser positivo ao melhorar a qualidade das peças de propaganda. “Importante darmos essa liberdade e garantir seu uso positivo, sem amarras às campanhas. Não podemos tentar frear a tecnologia”, afirmou.

O Instituto Gaúcho de Direito Eleitoral aconselhou a inclusão pela legislação eleitoral de uma definição do que é considerado IA. “Precisamos desse conceito definido para o trabalho dos players que atuam nas campanhas eleitorais”, disse sua representante, Francieli Campos.

Campos, na mesma linha de Maranhão, do Lawgorithm, aposta na necessidade de deixar claro o que é lícito e ilícito no uso da IA. O Instituto pede que a lei explicite que o seu uso seja voltado para o refinamento do conteúdo – desde que não descaracterize o conteúdo original.

Proibição de deep fake e restrição de LLMs

O representante do Camp sugeriu a proibição das deep fakes. “Nossos eleitores não estão prontos para distinguir o certo do errado, o real do fake. As consequências podem ser catastróficas”, disse Hoffmann.

Ele também pediu que as plataformas criem uma “advertência de deep fake” para candidaturas em desacordo com a lei e para usuários que disseminam desinformação.

Para André Gualttieri de Oliveira, doutor em filosofia em direito, é importante que a legislação eleitoral restrinja a criação de chatbots com grandes modelos de linguagem (LLMs, na sigla em inglês) e IA generativa, para que não haja alucinações por parte do robô. Para Oliveira, os chatbots devem responder a perguntas previamente programadas. Deu como exemplo a experiência das eleições na Coreia do Sul: “Esses chatbots só podiam responder a partir de textos predeterminados gravados pelo candidato. Isso evita as alucinações de IA generativa”, completou.

Resumo

Eleições 2024

Paloma Rossilo, representante do IRIS. Imagem: reprodução de vídeo/Youtube TSE

Para o IRIS (Instituto de Referência Internet e Sociedade), a legislação eleitoral precisa ser mais clara sobre os seguintes aspectos:

– de quem é a responsabilidade de informar ao cidadão que um determinado conteúdo foi fabricado com uso de tecnologia?;

– qual informação sobre o uso da tecnologia deve ser publicizada?;

– quem deve identificar um conteúdo de caráter político-eleitoral?

Para melhorar esses aspectos, o IRIS sugere que a pessoa autora seja responsável por indicar a utilização de tecnologias digitais e o caráter político-eleitoral daquele conteúdo e que os provedores de aplicação ofereçam ferramentas para tal.

Paloma Rossilo, representante do IRIS, também sugeriu que apenas os conteúdos político-eleitorais impulsionados tenham a obrigação de oferecer dados sobre o uso de tecnologias digitais. “Esse tipo de conteúdo impulsionado é revestido de uma camada a mais de profissionalização e de interesse eleitoral em impactar o pleito”, explicou.