Um estudo de 133 páginas da Data Privacy Brasil publicado no final de 2023 indica que o projeto de lei de regulação de inteligência artificial no Brasil (PL 2338/2023) precisa abordar com mais clareza “pontos de divergência” importantes para o desenvolvimento da tecnologia na sociedade brasileira. Entre exemplos de divergência estão mecanismos de combate ao racismo, sexismo e transfobia em sistemas sensíveis, como aqueles de reconhecimento facial na segurança pública.

“É fundamental que o Brasil construa uma regulação de IA que tenha similaridades com as discussões e modelos estrangeiros, para que haja convergência regulatória, mas levando em consideração as particularidades do país para que a regulação da tecnologia funcione para o contexto brasileiro e para as pessoas que aqui vivem, como foi iniciado por meio do PL 2338/2023. Parafraseando Cazuza ‘já passou da hora de o Brasil mostrar a sua cara’, ou só nos restará a festa pobre da IA para a qual nem sequer seremos convidados”, diz trecho do documento.

O estudo é baseado em 26 leis, atos e normativas que a instituição se debruçou e analisou sobre o paradigma da regulação da IA no mundo e como o Brasil está posicionado neste momento. Na visão da Data Privacy Brasil, o PL 2338/2023 tem uma “postura defensiva” para combater discriminações estruturais e proteger direitos dos brasileiros em temas como “resultados ilegítimos ou ilegais possivelmente produzidos por sistemas de IA”. Também indicou a falta de ações proativas, como: “Estímulo à produção de bancos de dados e sistemas de IA éticos diversos, abertos e multidisciplinares em território nacional, em combinação com o fomento à educação e capacitação”.

A análise frisou que o único trecho do projeto de lei que aborda a produção nacional é uma breve menção no Inciso X do art. 2º que diz “o acesso à informação e à educação, bem como a conscientização sobre os sistemas de inteligência artificial e suas aplicações”. Também apontou a falta de um capítulo programático com os deveres do Poder Público, de maneira similar ao artigo 26 do Marco Civil da Internet de 2014.

Histórico no Brasil

Importante recordar, o texto do PL 2388/2023 é fruto de meses de trabalho pela Comissão de Juristas (CJUSBIA) que buscava um consenso para projetos de lei sobre IA no Brasil que estavam em análise no Senado. A CJUSBIA terminou seu trabalho e entregou um relatório para o presidente do Senado, Rodrigo Pacheco (PSD-MG) em dezembro de 2022.

O texto foi protocolado em maio de 2023 por Pacheco. Em julho do mesmo ano, o senador Jorge Kajuru (PSB-GO) pediu a tramitação em conjunto com os outros projetos de lei que envolvem IA. E, em agosto, Pacheco acatou o pedido e criou a Comissão Temporária de Inteligência Artificial do Senado (CTIA) para analisar o emprego da inteligência artificial no Brasil.

Inicialmente criada para durar até dezembro, a CTIA foi prorrogada até abril de 2024 para ampliar o debate, como informou a Agência Senado. Além do PL 2388, a CTIA também analisa atualmente a proposta da Política Nacional de Inteligência Artificial (PL 5691/2019) e de Princípios de Uso da IA no Brasil (5051/2019).

Convergência Global x Divergência Local

No ambiente global, a Data Privacy Brasil chama a atenção para alguns temas de convergência e divergência entre países do Sul Global – como o Brasil – e líderes da economia global, como Estados Unidos e os países da OCDE. Em especial, o texto alerta para que a regulação não seja uma cópia do exterior, atenda as demandas locais e não se torne o Brasil vítima de uma “nova colonização” dos grandes poderes econômicos.

Na análise, a associação notou um “fio condutor” em comum entre as nações. Por um lado, isso é visto como positivo, pois aborda “racionalidade regulatória” e leis “baseadas em riscos”, mas por outro traz receios. Um exemplo é o excesso de classificação de riscos que pode “desembocar no reforço ou no esvaziamento da implementação de obrigações em jogo para fins não de qualquer tipo de inovação, mas uma que seja responsável”.

A instituição alertou no documento que uma regulação assimétrica baseada em riscos e uma interoperabilidade regulatória (pontos em comum nos projetos de regulação da IA, guiado por OCDE e EUA) podem esvaziar direitos e supervisão democrática em prol de um “novo tipo de colonialismo” que coloca em segundo plano os direitos trabalhistas, ambientais e culturais em prol de “extração precária de mão de obra e ilegal de minérios” que é importante para data labelling e construção de chips para os países desenvolvidos, por exemplo.

‘Falso trade-off’

A Data Privacy também analisou a ideia de que entes do mercado defendem que a regulação mais rígida em IA pode trazer atrasos tecnológicos. Para a associação essa defesa é um pretexto para um “falso trade-off” que tenta priorizar o avanço tecnológico ante a proteção de direitos e liberdades fundamentais. Contudo, esse “falso trade-off” – ou seja, a defesa da inovação em detrimento de uma IA responsável – começa a ser rechaçado nas propostas de outros países, em especial com novas ferramentas com potencial de crescimento transversal em tecnologia, economia e sociedade, como a IA generativa.

Crédito da ilustração no alto: imagem produzida por Fernando Paiva com IA generativa (Dall-E 3)