Ao contrário do que muitos pensam, a regulamentação da IA (ou, melhor dizendo, do uso da IA) pode e deve ser aliada da inovação e da tecnologia. Ao basear-se em princípios éticos e em uma abordagem de risco, a regulamentação pode incentivar o desenvolvimento da IA responsável e segura, além de aumentar a confiança do consumidor – o que, por sua vez, pode levar a uma maior adoção e uso da tecnologia.

Porém, há casos em que a regulamentação não se revela aliada da inovação, como, por exemplo, quando se tem propostas restritivas, baseadas apenas em direitos dos consumidores, que limitam a capacidade de empresas de inovar e desenvolver novas tecnologias. Regulamentações prescritivas, sem dúvida, tendem a levar a um excesso de burocracia e limitar a capacidade de empresas de experimentar novas abordagens e soluções inovadoras, novos algoritmos de IA ou técnicas de aprendizado de máquina, o que prejudica a capacidade de competir no mercado – interno e externo.

Regulação excessiva é aquela que impõe restrições desnecessárias ou desproporcionais aos riscos envolvidos, limitando a inovação, o desenvolvimento e a competitividade. Para exemplificar, trago um ponto alvo de amplo debate na regulação da IA: a responsabilidade civil. A proposta de aplicação da responsabilidade objetiva no contexto da IA é desafiadora, dada a complexidade dos sistemas de IA – não falo apenas dos algoritmos, mas de toda a cadeia de agentes envolvida no sistema. Além do risco de se sobrecarregar (ainda mais) o Judiciário com ações indenizatórias de todas as espécies, certamente faltaria expertise técnica para que os órgãos judiciários analisassem todas as provas e especificidades de casos muitas vezes complexos, envolvendo tecnologias de ponta. Por outro lado, a adoção da responsabilidade subjetiva sugere que as empresas seriam antes de tudo responsáveis por avaliar os riscos dos seus sistemas de IA e os custos envolvidos. Isso, salvo melhor juízo, pode ser um importante incentivo ao uso responsável da tecnologia, em lugar de um empecilho ao desenvolvimento da IA.

A primeira questão na regulamentação do uso de uma tecnologia é que a lei não acompanha o ritmo acelerado das mudanças tecnológicas – ora, em meio ao debate de regulação de sistemas de IA, já fomos introduzidos a uma nova era de IA generativa!

Para que a regulamentação seja equilibrada e adaptável às mudanças tecnológicas em constante evolução, é necessário que seja baseada em uma abordagem de risco e em princípios éticos, que permita a inovação e o desenvolvimento da tecnologia. Uma forma simples de alcançar isso é com diálogo. Consultas regulares à indústria e à sociedade civil, com foco em atualizar regulamentações que reflitam as necessidades e demandas em constante evolução, são um passo significativo.

Os princípios éticos fornecem um conjunto de diretrizes que ajudam a orientar nossas ações e decisões. Representam valores fundamentais que são considerados universalmente importantes e aplicáveis a todas as áreas da vida. Tomemos como exemplo o princípio de não causar danos. Isto não se baseia apenas no fato de que a lei penaliza ações prejudiciais aos outros, mas igualmente na crença arraigada em nossa cultura e sociedade de que prejudicar os outros é moralmente errado. Independentemente de qualquer regulação, são valores que nos ajudam a decidir o que é certo ou errado.

Em contrapartida, uma regulação baseada preponderantemente em direitos apresenta vários desafios em sua implementação – especialmente quando se trata de tecnologias emergentes, como é o caso da IA –, além de ter um impacto desproporcional em empresas menores ou startups, que podem não ter recursos para cumprir tamanhas exigências regulatórias. Mais que uma dificuldade na definição de quais são os direitos atingidos, como eles se aplicam às tecnologias  e quem são os atores responsáveis, esse modelo regulatório pode acarretar desigualdade competitiva entre empresas e dificultar a entrada de novos atores no mercado.

É consenso que a proteção dos direitos e garantias fundamentais dos cidadãos é essencial para permitir que as inovações sejam desenvolvidas e implementadas de forma ética e responsável, levando em consideração as implicações sociais, ambientais e econômicas. Neste contexto, a regulação deve buscar um equilíbrio entre a proteção dos direitos e a promoção da inovação, para que ambas possam coexistir de maneira sustentável, com base não apenas em princípios, mas também nas melhores práticas internacionais. 

O caminho, quem sabe, passa por uma abordagem que leve em conta, ainda:

  1. o diálogo entre os diferentes atores envolvidos, como empresas, organizações da sociedade civil, academia e governo, para discutir os desafios e oportunidades da tecnologia e encontrar soluções compartilhadas;
  2. o estabelecimento de mecanismos de avaliação e monitoramento de impacto, para identificar possíveis riscos e oportunidades, e gradualmente adaptar as estratégias de regulação, com base nos resultados;
  3. o estímulo à pesquisa e ao desenvolvimento da IA, com soluções inovadoras que promovam o bem-estar social, proteção dos diretos humanos, do meio ambiente e o desenvolvimento econômico sustentável; e 
  4. a promoção de políticas públicas, em especial com foco em programas de capacitação de mão de obra.

Apesar de a IA ser matemática, para o equilíbrio que buscamos não há fórmula pronta. É preciso que a abordagem seja adaptada, considerando as características de cada contexto e balanceando os diferentes elementos como inovação, ética, transparência e responsabilidade. Só assim será possível garantir um ambiente regulatório equilibrado e propício à inovação. 

Para além do olhar jurídico, a multidisciplinariedade na regulação de IA é essencial por abranger um universo de áreas do conhecimento – como ciência da computação, matemática, ética, direito, psicologia, sociologia, artes e tantas outras. A regulação da IA precisa levar em conta não só aspectos legais, mas também o aspecto técnico e implicações éticas, sociais e psicológicas, por exemplo.

É preciso ouvir quem desenvolve a tecnologia, não apenas quem a usa.