A tecnologia trouxe incontáveis momentos disruptivos – ao ponto de ‘disruptivo’ se tornar uma expressão quase banal. Estamos levando turistas ao espaço, os carros tornaram-se autônomos, robôs aspiram nossas casas, podemos antever doenças antes que elas se alastrem e muito mais ainda está por vir. A tecnologia, por definição, é desenvolvida para nos servir; é uma ferramenta para aumentar e melhorar nossa capacidade – seja ela qual for – e que está e estará presente nas respostas aos nossos maiores problemas, atuais e futuros. Reconhecer seu papel para o desenvolvimento da sociedade é fundamental (como vimos, por exemplo, na aceleração da transformação digital durante a pandemia da Covid-19), mas é igualmente importante reconhecer seu protagonismo transversal, que impacta todos os setores, e a necessidade de adaptação do sistema regulatório.

O desconhecido gera incerteza, e a incerteza nos faz tomar decisões precipitadas. Por isso, independentemente do setor, o pior tipo de regulação é aquele baseado no medo, pois gera insegurança jurídica, torna o ambiente regulatório complexo e, consequentemente, afasta investimentos. Diante do cenário de incertezas e num esforço conjunto para gerar confiança, as empresas, as organizações internacionais e os governos correram para desenvolver princípios éticos para o desenvolvimento e a aplicação da inteligência artificial. As boas práticas globais ditam o básico, para não dizer o óbvio: os sistemas de IA devem ser centrados no humano, transparentes, robustos, éticos, justos e responsáveis. São todos valores que esperamos, inclusive, de qualquer ser humano. 

Graças à LGPD, as pessoas hoje entendem a importância dos seus dados pessoais. Privacidade virou uma preocupação, e os termos de consentimento foram atualizados. É preciso gerar a mesma conscientização quando falamos do uso da IA, pois só conseguiremos usufruir de todos os benefícios da tecnologia quando confiarmos no seu desenvolvimento e na sua correta aplicação. 

A segurança jurídica que um ambiente regulatório robusto e estruturado oferece sem dúvida auxilia nesse processo. O desafio, então, está posto: como manter um ambiente regulatório que converse e se adeque – rapidamente – às mudanças que as novas tecnologias apresentam? Infelizmente, não há uma fórmula exata. Nosso setor há muito defende a regulação inteligente, à medida que regras claras geram segurança, tornam decisões mais previsíveis e incentivam investimentos. Ademais, atuamos com setores altamente regulados – como agro, saúde, automobilístico, financeiro etc. –, seja suportando suas infraestruturas, seja apoiando no processo de digitalização. 

A regulação da IA precisa de uma abordagem interdisciplinar, que envolva todos os atores para endereçar preocupações, tendo em conta as tecnicidades e especificidades da tecnologia. De forma a garantir a evolução da IA, é necessária uma abordagem soft law, algo que demandará maior responsabilidade e comprometimento por parte das empresas, mas também uma maior participação do governo. 

Não é possível desassociar a IA de um contexto maior no cenário regulatório. Com efeito, temos intersecções com proteção de dados, direitos do consumidor, direitos concorrenciais, responsabilidade algorítmica, transferência internacional de dados, desinformação, segurança cibernética, dentre outras tantas. Orquestrar todas essas intersecções demandará maestria – e apoio de todos os envolvidos.

Apesar de já vivermos em um mundo com a constante presença da inteligência artificial, um Marco Legal da IA trará segurança e ajudará a gerar confiança, desde que baseado em princípios, com abordagem de risco e foco no humano, nos direitos fundamentais e na transparência. Precisam ser claros o aonde o Brasil quer chegar e o como tornar isso realidade, provendo balizas que assegurem que a tecnologia (ou melhor, o seu uso) não viole direitos e garantias fundamentais. 

Aliadas ao esforço legislativo, diversas iniciativas estão se desdobrando, para além da própria Estratégia Brasileira de IA. Recentemente, foi instalada a Comissão de Estudos de IA, na Agência Brasileira de Normas Técnicas (ABNT), com o propósito de analisar a pertinência de adotar as normas ISO relativas à IA no contexto internacional aqui no Brasil, bem como participar das discussões para o desenvolvimento de novas normas. Coordenada pela ABES, a Comissão é aberta à participação de toda sociedade e conta com a contribuição de empresas, entidades de classe, agências do governo, academia e sociedade civil. Ações concretas como essas colocam o Brasil no centro das discussões mundiais. 

Outros países estão falando sobre regulação da IA e são constantemente referenciados nas discussões sobre o assunto aqui no Brasil. À parte de também termos uma estratégia nacional de IA, não nos sobram muitas similaridades. A Austrália, por exemplo, tem o objetivo de ser líder global na tecnologia até 2030, e tem como meta garantir que o sistema regulatório permaneça adequado, ágil, inteligente e moderno à medida que a tecnologia se desenvolva. Em 2020, a Nova Zelândia participou de um projeto piloto com o Fórum Econômico Mundial, que resultou na publicação Reimaginando a Regulação para a Era da IA (em tradução livre), que apontou para a necessidade de se mapear o universo de regulação existente de IA e seus usos para identificar falhas e sobreposições. E, nos Estados Unidos, o governo instruiu suas agências reguladoras a observarem os princípios éticos nos sistemas de IA, dentro de suas atribuições, num ato pró-inovação, e criou o Comitê Consultivo Nacional de Inteligência Artificial (NAIAC, em sua sigla em inglês), cujo objetivo é fornecer recomendações sobre questões relacionadas à força de trabalho de IA, adequação do plano estratégico nacional de P&D de IA, oportunidades de cooperação internacional, dentre outros.

Para o Brasil ser relevante nessa discussão, a economia baseada em IA precisa ser uma agenda de Estado. A Estratégia Brasileira de Inteligência Artificial nos aponta a direção, mas sem o patrocínio correto as ações propostas correm o risco de não sair do papel. É preciso considerar o todo – afinal, a IA toca todos os setores, de modo absolutamente transversal. Usando o 5G como exemplo: sem a infraestrutura adequada (antenas, fibra óptica, manutenção etc), a tecnologia não é viável. O 5G em si não diz nada, a não ser que se pense o todo para sua operacionalização. Felizmente, em se tratando de 5G, o Brasil está atuando nesse sentido. Com a IA passa o mesmo: não se trata da tecnologia em si, mas sim da potencialidade do seu uso.

Falamos de boas práticas internacionais para o desenvolvimento da tecnologia, mas bons marcos regulatórios também precisam entrar na equação. Não se trata de ‘copiar e colar’, porque nosso sistema e contexto são outros, mas talvez as experiências bem-sucedidas de outros países possam nos ajudar a ganhar algumas casas e a nos posicionar de forma mais estruturada e consistente na corrida da inovação. O mundo digital é interoperável, e garantir o “ir e vir” da IA é crítico para o seu avanço. 

Achar o ponto de equilíbrio em que direitos, obrigações, necessidades e possibilidades de todos os atores envolvidos sejam endereçados é um desafio democrático que nós respeitamos e estamos prontos para enfrentar. Inclusive, assegurar que todas as partes impactadas – com diferentes pontos de vistas e necessidades – participem do processo é uma forma não só de garantir diversidade e inclusão, mas também de mitigar os riscos de segregação digital.

O status quo da regulação já atende a principal preocupação dos nossos legisladores – e de todas as pessoas de bem: garantir os direitos fundamentais. Obviamente, são necessárias adequações e atualizações às normas, sobretudo em temas tão dinâmicos. Muitas vezes, novas diretrizes precisam direcionar novos assuntos, mas precisam ser pensadas e implementadas de forma fundamentada, estruturada e inteligente.