A União Europeia aprovou na última quarta-feira, 14, a primeira lei no mundo que regula a inteligência artificial. Na tentativa de ser abrangente, o ato de IA acaba se tornando uma regulação ampla e que tenta abordar todos os sistemas e modelos. Pelo menos aqueles que existem no momento. Seu texto apresenta pontos como a regulação de acordo com os riscos, atribuindo maiores deveres para os modelos considerados mais “perigosos” e que podem gerar malefícios à sociedade. Uma inteligência artificial com menos capacidade de dano terá outro tratamento. Para os especialistas ouvidos por Mobile Time, este é o ponto mais forte da regulação europeia. Porém, para Christian Perrone, head do ITS-Rio, é também, seu ponto fraco. Já para Tainá Junquilho, advogada e coordenadora do LIA IDP, foi uma vitória conseguir o consenso entre todos os estados membros da UE para uma regulação que está sendo discutida desde 2018.

Pontos fortes e fracos juntos e misturados

Trata-se de uma lei com regulagem baseada em riscos, atribuindo maiores deveres para os modelos considerados com mais chances de causar malefícios. Neste caso, pode haver até banimento da IA caso seja muito difícil de ser controlada. Para Tainá Aguiar Junquilho, advogada e coordenadora do LIA IDP, este é um dos pontos mais fortes do Ato de IA da Europa.

Outro ponto “muito forte” é a existência de uma autoridade para supervisionar. Haverá tanto uma autoridade geral, da União Europeia, como também locais, em cada estado-membro.

Junquilho também aponta para o fato de que dependendo do nível de risco da IA, sua entrada em vigor é diferente. Ou seja, para um sistema de inteligência artificial com risco muito alto, e que pode ser banido, a lei passa a valer em seis meses. Já para aquelas de baixo risco, as empresas terão mais tempo para se adaptar à lei, 36 meses.

Para Christian Perrone, do ITS-Rio, o ponto mais forte da lei europeia é o balanceamento entre a capacidade de inovação com mecanismos de precaução para lidar com riscos e potenciais danos. No entanto, o especialista em direito digital acredita que o ponto forte da lei talvez seja sua criptonita, também. Isso porque, entre os mecanismos de inovação está o sandbox regulatório – que também é um ponto positivo –, porém, as startups e as pequenas e médias empresas que se arriscarem a “brincar no parque de areia” precisam estar em compliance com o novo ato.

“Esses ambientes experimentais regulatórios com prioridades para PMEs e startups locais é um ponto muito positivo. Mas qual a fraqueza? Não existem mecanismos de suspensão das normas. A empresa faz um teste que será feito de fato dentro de um contexto em que as normas estão vigentes. Os testes têm um elemento de compliance, de cumprimento dessas normas. Ou seja, o empreendedor já tem o regulador em cima de dele, com possibilidade de ter impactos dentro do negócio, o que pode gerar um certo desestímulo à participação,”, explica.

Christian Perrone

Christian Perrone, head do ITS Rio. Foto: divulgação

A abordagem baseada em risco é outro ponto forte com elementos de fraqueza para Perrone. Para o especialista, é uma maneira “interessante para lidar com os mecanismos com mais riscos, e é bom manter a lógica de que existem mecanismos dinâmicos. Nem todos os sistemas de inteligência artificial trazem os mesmos riscos e mesmo potencial de dano e, por isso, é possível ter uma modulação no nível de obrigações.”, explica.

O porém é a incerteza de como caracterizar cada sistema e cada mecanismo que for desenvolvido. Perrone acha que são definições muito amplas e com relação a diferentes áreas e elementos, o que pode gerar complexidade na implementação.

Outros pontos positivos da lei de IA europeia é que se trata de uma lei geral e, ao mesmo tempo, comporta regulações setoriais. Ou seja, o sistema financeiro pode ter uma regulação própria, o de saúde etc. “A complexidade é como determinar as competências de quem está regulando questões gerais de IA e as específicas. Aqui, a dúvida é como lidar com potenciais conflitos. Isso está em aberto e temos que ver na prática como a lei vai se estruturar”, diz.

Que lições podemos aproveitar do AI Act?

Perguntados se devemos nos inspirar na lei europeia – como fizemos, por exemplo, na LGPD, os especialistas acreditam que o Brasil deveria pensar em sua própria regulação, levando em conta a cultura brasileira, o seu povo e os seus hábitos. Um ponto ou outro da lei europeia poderia ser aproveitado. Mas não sua essência.

Patricia Peck

Para a advogada Patricia Peck, Brasil deve fazer sua própria legislação de IA. Foto: divulgação

O Brasil não deveria se basear na lei aprovada na União Europeia. Pelo menos não por completo. Patricia Peck, advogada especialista em direito digital e sócia do escritório Peck Advogados, diz que não deveríamos porque somos regiões culturais diferentes, com necessidades distintas.

“Particularmente, penso que não. O Brasil precisa tomar a frente na discussão de leis sobre inteligência artificial. Precisamos pensar por nós mesmos, com a nossa história e contexto. Como disse, há questões que ocorrem cotidianamente em países desenvolvidos, mas não aqui. Temos um povo diferente, costumes diferentes. A lei deve refletir a nossa realidade, não a realidade de outro continente”, avalia.

Peck acredita que o País poderia aproveitar pontos gerais, como as definições de termos e questões técnicas da engenharia da IA, “mas, por exemplo, a gradação dos riscos, o uso da IA pelos órgãos do governo, a autoridade que fiscalizará, devem ser analisados pela nossa ótica”.

Para Junquilho, o modelo europeu pode inspirar o brasileiro. Mas é importante que, assim como na legislação europeia, se tenha uma autoridade para regular o todo. “É importante que, ainda que seja a Autoridade Nacional de Proteção de Dados (ANPD), como tem se ventilado, a gente estabeleça uma autoridade nacional”, acredita Junquilho.

Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados, acredita que o Brasil deveria se espelhar no tempo de maturação do debate regulatório – uma vez que a Europa vem discutindo o tema há muitos anos.

As considerações sobre o que são sistemas de baixo risco, aquelas que desempenham tarefas processuais ou meramente preparatórias, por exemplo, também são um ponto que Giovanini acredita que o Brasil possa se basear. “Trata-se de um reconhecimento de que sistemas de IA estarão cada vez mais presentes em diversos contextos e, por vezes, terão papéis essencialmente operacionais. Esse racional também pode ser aproveitado no debate regulatório brasileiro.”

A abordagem regulatória setorial, por outro lado, é um ponto que a advogada acredita que necessita de contextualização. Giovanini aposta numa “coordenação entre diferentes agências e autoridades já existentes e competentes para regular determinados setores de forma específica”.

Matheus Puppe, sócio especialista em novas tecnologias do Maneira Advogados, acredita que a tropicalização é essencial. Ou seja, é importante que a lei sirva de inspiração, mas adaptações se fazem necessárias com relação às particularidades jurídicas e às necessidades sociais brasileiras.

“A experiência europeia com a regulamentação de IA oferece valiosas lições sobre a importância de equilibrar segurança, privacidade e incentivo à inovação. Contudo, o Brasil deve considerar sua própria realidade econômica, social e tecnológica ao desenvolver sua legislação de IA, garantindo que esta promova o desenvolvimento tecnológico enquanto protege os direitos dos cidadãos e incentiva a competitividade internacional”, afirma.