[Matéria atualizada em 12/12/23, às 9h10 para mudar posto de trabalho de Tainá Junquilho] O acordo tripartite provisório para o texto da Lei de inteligência artificial entre o Parlamento e o Conselho europeus e a Comissão Europeia foi um grande avanço para a regulação da IA na região, apontam especialistas ouvidos por Mobile Time. Entre os pontos positivos sublinhados por Tainá Junquilho, coordenadora do LIA IDP (Laboratório de governança e regulação de Inteligência Artificia), e Dora Kaufman, pesquisadora em IA e professora da PUCSP, estão a introdução da IA generativa no texto, a obrigatoriedade em se dimensionar o impacto da tecnologia ao meio ambiente e a instalação do gabinete de IA supranacional.

“Finalmente se chegou a um consenso”, diz Junquilho. “Foram anos esperando por isso”, completa. Kaufman acredita que o acordo é um grande avanço, “sem dúvida”, mas se tornou um arcabouço complexo e de difícil entendimento.

Chatbots: uma mudança importante

Entre as mudanças apontadas por Kaufman está o tratamento aos chatbots. Se, nos textos anteriores, eles eram considerados sistemas de baixo risco – e a única obrigação da empresa era informar claramente ao usuário se ele estava interagindo com uma máquina ou com uma pessoa – atualmente, com os modelos de IA generativa, essa perspectiva muda. Isso porque a IA generativa é considerada de alto risco. Assim, se um chatbot usar esta tecnologia, ele passa a ser considerado de alto risco.

“Com o ChatGPT e afins, muda a natureza de um chatbot. O risco muda por conta do modelo criado para seu uso. Antes, tínhamos uma IA preditiva, que cria um modelo para cada tarefa. Na generativa, o risco vai depender do seu uso. Houve, então, um deslocamento de risco. E abordar o risco da utilização é mais complexo do que a partir de um tema, de uma tarefa”, explica Kaufman.

Pontos positivos

Entre os pontos positivos, Junquilho frisa que o novo texto aborda a IA generativa, que antes estava ausente. Outro destaque é a instalação de um gabinete de IA supranacional coordenado por autoridades nacionais para fiscalizar a regulação.

“Destaco o controle sobre a IA generativa e seus ciclos de vida para não ficar essa bagunça que é hoje. E vejo também com muito bons olhos a instalação do gabinete de IA supranacional coordenado por autoridades nacionais que vão fiscalizar e permitir um bom debate na UE, além de possibilitar a flexibilidade que uma regulação dessas exige. Eles vão manter a lei viva, em constante diálogo, já que essa é uma tecnologia que exige constantes atualizações”, explica Junquilho.

Por sua vez, Kaufman acredita que a obrigatoriedade de se dimensionar o impacto no meio ambiente da IA é um ponto bastante positivo. Isso porque os sistemas de IA demandam muito de capacidade computacional, o que exige muita energia e emissão de CO2. “Isso é fundamental”, acredita.

Pontos nebulosos

Entre os aspectos negativos está a própria complexidade da lei. Trata-se de um “grande arcabouço sem as regras específicas definidas”, diz Kaufman. “E a complexidade acaba favorecendo a concentração de mercado”, acredita.

Entre as dúvidas da professora e pesquisadora da PUC-SP está, por exemplo, o abrandamento da lei para PMEs e startups. Para ela, não importa o tamanho da empresa. “A questão principal não está no porte de quem faz, mas no seu uso. A OpenAI, antes do ChatGPT, não era uma grande empresa. É um exemplo que está aí”, resume.

Outra questão que a especialista faz é sobre a obrigatoriedade de as empresas documentarem o desenvolvimento da IA. “Essas empresas nunca tiveram que fazer isso. IA não é um produto como um remédio. As farmacêuticas sabem muito bem o que devem fazer para lançar um remédio. Não é o caso com a inteligência artificial”, compara.

Por trás da pressa do acordo

De acordo com Kaufman, o movimento para se arrumar um acordo entre os três poderes para o texto sobre a regulação da inteligência artificial se deu porque em julho do ano que vem a União Europeia fará eleições parlamentares e, se esperassem mais tempo, este parlamento não conseguiria votar a regulação.

Outro ponto foi que um acordo em paralelo entre Alemanha, França e Itália para que os modelos de fundação, que estão relacionados diretamente com IA generativa, tivessem autorregulação, causou um mal-estar e uma necessidade de apressar o andamento com a lei. Vale dizer que o acordo foi motivado por uma forte pressão das empresas de IA generativa europeias. E que, no novo texto da lei de IA não há a possibilidade de se fazer autorregulação. Ou seja, foi uma corrida do Parlamento para que sua vontade prevaleça.

Modelo setorial

Kaufman sempre defendeu um modelo de regulação setorial em que cada um regulasse conforme suas determinações e se fizesse um grande conselho com representantes de todas as agências e entidades de fiscalização regulatória.

“O protagonismo da fiscalização tem que ser das agências setoriais – não vejo como criar um arcabouço dessa complexidade geral e ter uma agência única regulando tudo isso. Ninguém mais capaz do que o Banco Central para regular o uso da IA no sistema bancário, por exemplo. Minha proposta, até segunda ordem, é que se forme um conselho com representantes de agências e outros especialistas, como um grande colegiado”, explica.

Eduardo Paranhos, advogado especialista em tecnologia, sócio do EPG Advogados e líder do Grupo de Trabalho de IA da Abes, concorda com o modelo setorial. “O texto do chamado AI Act europeu partiu de uma premissa de pré-classificação de riscos que, na prática, pode gerar dificuldades para implementação. O setor entende que o foco da regulação deve ser o ‘uso’ da IA, e não a tecnologia em si. Neste contexto, os reguladores setoriais já existentes estariam mais bem posicionados para aferir estes riscos do que a figura de um novo regulador central, que traria desafios orçamentários e de eficiência”, explica.

Versão brasileira?

Paranhos explica que o movimento na Europa deve ser observado “como parte de uma agenda evolutiva sobre o tema”, em que cada país ou bloco “tem como desafio endereçar as suas próprias necessidades”. No entanto, o especialista acredita que as leis existentes no Brasil são capazes de “entregar soluções jurídicas sólidas para a grande maioria dos cenários que possam derivar da IA”. Entre elas, o especialista cita como exemplo LGPD, Marco Civil da Internet, Código de Defesa do Consumidor, Código Civil e Código Penal. “Errar na regulação da IA agora poderia distanciar o Brasil ainda mais – e talvez de forma irreversível – dos verdadeiros protagonistas no avanço da tecnologia”, alerta.

Paranhos acredita que o modelo europeu não seria o mais adequado. Existem outros com desenhos mais flexíveis e interessantes para o Brasil se inspirar.

“Com o desenho atual, o modelo europeu não seria o mais adequado para a realidade brasileira. Vale destacar que, segundo pesquisa da Tortoise Media, o país europeu mais bem colocado no ranking global de investimento e implementação de IA no mundo aparece na 8ª colocação (Alemanha). Há, portanto, outros sete regimes diferentes em países com níveis mais elevados de investimentos em IA. Alguns desses modelos, como os propostos pelo Reino Unido e Singapura, por exemplo, são mais flexíveis e contextuais do que o europeu, com um claro posicionamento pró-inovação. Outros exemplos nesta direção são os modelos do Japão e da Austrália”, contextualiza.

Kaufman também aposta em um modelo setorial e destaca a ordem executiva emitida recentemente pelo presidente Joe Biden, nos Estados Unidos. “É possível pegar em cada setor as regras que já existem e expandi-las para a IA”, resume.