A inteligência artificial não é uma tecnologia qualquer – ela está atrelada a diversas atividades humanas, abrange múltiplas áreas, e o mundo inteiro ainda discute de que forma ela pode ser regulada. Entre muitas discussões, um consenso: o assunto não pode ser tratado com rapidez, pois há riscos de o Brasil não conseguir fazer uma legislação adequada, e acabar inibindo o desenvolvimento tecnológico no País.

Esta foi a conclusão dos especialistas que participaram da audiência pública na Câmara dos Deputados nesta quinta-feira, 8, intitulada “Inteligência artificial: princípios, direitos e deveres”, que tratou do PL 21/20, aprovado em regime de urgência, e que procura regulamentar o uso de IA no Brasil.

Segundo Fabio Cozman, diretor do Centro de Inteligência Artificial do Brasil da Universidade de São Paulo (USP), os problemas no PL começam na própria definição de IA: ao definir a tecnologia de maneira muito ampla, pode criar dúvidas sobre os limites de aplicação da lei. “Será o Judiciário que vai ter que decidir onde a lei se aplica, ou seja, o que é e o que não é IA. O projeto tem uma evidente preocupação com o ser humano, o que é uma qualidade, e pontos muito bons. Porém poderia receber refinamentos, sobretudo no que diz respeito a definições e procedimentos”, afirmou.

Paulo José Pereira Curado, diretor de Inovação do CPQD (Centro de Pesquisa e Desenvolvimento em Telecomunicações), acredita que a estratégia brasileira regulamentar foi muito bem escrita, porém, buscar regulação enquanto uma tecnologia ainda está em desenvolvimento é algo crítico. “É preciso tomar muito cuidado com a legislação, para não inibir o trabalho de cientistas e perdermos bons profissionais para o exterior, como acontece todos os dias. O que vejo fora do Brasil é que temos ainda dois ou três anos pela frente para evoluir e só então termos referências internacionais”, explicou.

Ao mencionar as regras em outros países, Loren Spínola, líder do Grupo de Trabalho sobre Inteligência Artificial da Abes (Associação Brasileira das Empresas de Software) afirmou que é consenso na União Européia fazer uma abordagem de IA por risco: quando a regulação for necessária, ela é aplicada de acordo com o uso, uma vez que a tecnologia não é homogênea. Ela também pediu cautela e debate na legislação, mas ressaltou a necessidade de um Marco Legal de IA no Brasil. “É uma segurança jurídica. É preocupante que o tema já esteja sendo tratado em níveis estaduais. É fundamental que isso seja federalizado”, apontou. “Entretanto, é preciso que os legisladores verifiquem as experiências internacionais e o amplo debate que tivemos com a LGPD. E lembrem-se que as pequenas e médias empresas são as principais responsáveis por IA no Brasil”, finalizou.

José Gontijo, diretor do Departamento de Ciência, Tecnologia e Inovação Digital do Ministério da Ciência, Tecnologia e Inovações (MCTI), informou que a expectativa do governo é investir R$ 140 milhões em IA nos próximos anos.