O uso de novas tecnologias sempre trouxe desafios para os reguladores. Não é tarefa simples identificar condições que justifiquem a intervenção do poder estatal em atividades extremamente dinâmicas e multifacetadas. Esta constatação se torna ainda mais evidente na medida em que o desenvolvimento e a adoção destas tecnologias não conhecem fronteiras. E o boom da IA acentua ainda mais esta complexidade.

O mercado global de soluções de IA deve ultrapassar a extraordinária marca de meio trilhão de dólares em 2027, segundo estimativas do IDC. Se o número já chama atenção pela sua magnitude, é interessante notar, ainda, que o crescimento exponencial da IA não se dá apenas com o aumento dos negócios referentes a soluções existentes, mas também pelo surgimento de novas soluções, endereçando problemas reais da nossa sociedade de formas inovadoras. São inúmeros os exemplos nas áreas da saúde, finanças, agronegócio, entre tantas outras.

Há pouco mais de apenas um ano, assistimos impressionados ao lançamento de uma ferramenta que faria com que a IA generativa passasse a ter papel central na forma como nos comunicamos e trabalhamos. Apesar do temor inicial quanto aos impactos – quantitativos e qualitativos – que estas ferramentas poderiam gerar no mercado de trabalho, logo se constatou que a IA generativa funciona como um poderoso impulsionador de produtividade, ao permitir, entre outras coisas, prototipagens mais rápidas e eficientes baseadas em uma infinidade de informações, como textos, imagens e outros conteúdos. Estudos como o lançado pela Organização Mundial do Trabalho (OIT) em agosto de 2023 sugerem que o maior impacto desta tecnologia não será a eliminação de postos de trabalho, mas sim uma melhoria na qualidade do trabalho, em especial no que se refere à intensidade e autonomia da mão de obra.

Neste cenário de inovação acelerada, transformação dos negócios e do papel da tecnologia na vida das pessoas e das organizações, os países têm se dedicado a entender se/quando/como a IA deve ser regulada. A forma como este debate avança ainda parece longe de uma convergência global, ao menos no que se refere ao estabelecimento de uma legislação abrangente sobre o tema. Por um lado, há o exemplo do movimento da União Europeia para a adoção do seu ‘AI Act’, cujo escopo original estava apoiado em um modelo estrito de pré-classificação de risco, responsabilização e imposição de penalidades em toda a cadeia de valor de IA. Outros modelos, notadamente o do Reino Unido, destacam a importância do reconhecimento do papel da legislação existente e dos reguladores setoriais, apontando, ainda, para a dificuldade de se criar um regime de responsabilidade específico para IA, inclusive pelo potencial que uma legislação desbalanceada poderia ter como detratora da inovação.

No Brasil, os debates em torno da regulação da IA até agora refletem um pouco de cada uma destas visões: um modelo ‘prescritivo’, de inspiração europeia, que impõe responsabilidades e pretende uniformizar o enfrentamento dos riscos da IA sem contextualizar o uso em cada setor; e, em outro sentido, a proposta de adoção de um marco legal contextual, baseado em princípios amplamente reconhecidos (e.g. UNESCO, OCDE), na reafirmação da legislação existente e no papel dos reguladores setoriais. No estágio atual da tecnologia, uma regulação baseada em princípios é o melhor caminho – e não apenas para o Brasil.

Em primeiro lugar, é importante destacar que a esmagadora maioria das situações que possam gerar preocupações com relação à IA já podem ser endereçadas por meio do ordenamento jurídico existente. O uso de uma ferramenta de IA deve observar, tanto quanto qualquer outra tecnologia, o que estabelece a Lei Geral de Proteção de Dados Pessoais (LGPD), o Marco Civil da Internet, o Código de Defesa do Consumidor (CDC) – se houver relação de consumo, Código Civil, Código Penal, entre outras normas. Adicionalmente, os reguladores setoriais ou temáticos permanecem competentes para disciplinar riscos em suas áreas de atuação.

É comum ouvirmos em debates sobre a regulação da IA, percepções de que o texto da proposição legislativa mais rígida e prescritiva estaria em linha, por exemplo, com a LGPD, trazendo segurança jurídica. Na realidade, ocorre o exato oposto. O tratamento de dados pessoais já é detalhadamente disciplinado pela legislação própria, de forma que uma lei geral de IA que se sobrepusesse parcialmente à LGPD traria enorme insegurança jurídica. Onde ambas as legislações tivessem coberturas idênticas, teríamos uma situação em que a lei de IA seria redundante; onde fossem conflitantes, veríamos uma judicialização acentuada.

O modelo contextual-principiológico traz vantagens para todo o ecossistema da IA, incluindo desenvolvedores e usuários, impulsionando a inovação e o surgimento de novas empresas. Com a revalidação do papel da regulação setorial, desenvolvedores, usuários e novos entrantes concentrariam os seus esforços na gestão do uso da IA especificamente em relação à sua área de atuação. Ao contrário das críticas que defensores do modelo rígido fazem, argumentando que uma lei amparada em princípios não teria efetividade, o marco legal contextual-principiológico operaria também como direcionador para que os reguladores setoriais definissem questões de risco referentes a IA no âmbito de sua atuação. Deixar de cumprir as normas dos reguladores competentes de cada setor acarreta consequências previstas nas leis e regulamentações infralegais pertinentes.   

Ou seja, ao mesmo tempo em que não parece haver lacuna que justifique a adoção de uma lei rígida e prescritiva para a AI, é inegável o quanto um modelo como este serviria para desencorajar o empreendedorismo e a evolução da tecnologia, seja pelo ônus regulatório, pela insegurança jurídica, ou pela responsabilização desproporcional dos agentes da IA.

E esta constatação vale não apenas para o Brasil, mas também para outros países, inclusive aqueles com maior protagonismo em IA no mundo. Segundo pesquisa publicada anualmente pela Tortoise Media, o país membro da União Europeia com maior nível de investimento e implementação de IA no mundo aparece apenas na oitava posição do ranking global. Países como Austrália, Coréia do Sul, Estados Unidos, Japão, Reino Unido e Singapura têm privilegiado modelos de regulação contextual, com propostas que gradualmente enfrentem eventuais lacunas, ao invés de estabelecerem regras prescritivas desde já.

Cabe ao Brasil definir se queremos incentivar a inovação, com investimentos em capacitação, controles coerentes e equilibrados dos riscos da IA, ou adotar uma das legislações mais rigorosas do mundo, afastando o País de forma potencialmente irreversível do mapa global da tecnologia.