O Parlamento Europeu aprovou o primeiro rascunho para uma regulação de inteligência artificial (IA) na União Europeia (UE), nesta quarta-feira, 14. Aprovada com 499 votos a favor, 28 contra e 93 abstenções, a proposta é uma das primeiras grandes legislações do mundo a regular sistemas de IA.

As regras visam promover a adoção de IA confiável e centrada no ser humano. Além disso, buscam proteger a saúde, a segurança, os direitos fundamentais e a democracia de seus efeitos nocivos. A regulação garantiria que a IA desenvolvida e usada nos países do bloco esteja totalmente alinhada com os direitos e valores da UE, o que inclui supervisão humana, segurança, privacidade, transparência, não discriminação e bem-estar social e ambiental. Violações das regras podem acarretar multas de até 30 milhões de euros (US$ 33 milhões) ou 6% da receita anual global da companhia.

As regras propostas seguem uma abordagem baseada em gradações de risco, conforme as finalidades dos sistemas de IA. Elas estabelecem obrigações para provedores e para quem implementa os sistemas, dependendo do nível de risco que a IA pode gerar. São quatro níveis, que vão do mínimo ao inaceitável. Fornecedores de IA precisariam fazer uma avaliação de risco antes de disponibilizar a tecnologia ao público, da mesma forma como drogas devem passar por processos de aprovação.

De acordo com a proposta, são classificados como de alto risco sistemas de IA que representem danos significativos à saúde, à segurança, aos direitos fundamentais ou ao meio ambiente. Nessa classificação, estão inclusos sistemas usados para operação de infraestrutura crítica, como água e energia, no sistema legal, ou para determinação de quem tem acesso a serviços públicos e benefícios governamentais. Sistemas usados para influenciar eleitores e o resultado de eleições, além daqueles dedicados à recomendação em plataformas de mídias sociais com mais de 45 milhões de usuários foram adicionados à lista de alto risco.

Práticas proibidas de IA

Sistemas de IA com um nível de risco inaceitável para a segurança das pessoas seriam proibidos, o que envolve uma série de finalidades. Isso inclui, por exemplo, aqueles usados para pontuação social – isto é, classificação de pessoas com base em seu comportamento social ou características pessoais.

Também estão na lista de proibições os sistemas de identificação biométrica, como reconhecimento facial, em espaços de acesso público, pois são considerados de uso intrusivo e discriminatório. A única exceção seria para a persecução de crimes graves, mas apenas mediante autorização judicial. Ficariam proibidos sistemas de categorização biométrica que se utilizam de características sensíveis, como gênero, raça, etnia, status de cidadania, religião e orientação política.

A proposta de regulação se preocupa em vedar sistemas de policiamento preditivo, com base em perfis, localização ou comportamento criminoso passado, além de sistemas de reconhecimento de emoções, seja na aplicação da lei, gerenciamento de fronteiras, local de trabalho e instituições educacionais.

Ficaria proibida a coleta não direcionada de imagens faciais da Internet, ou imagens de câmeras de segurança, para criação de bancos de dados de reconhecimento facial, pois esses usos violariam, por exemplo, o direito à privacidade.

IA generativa

As IAs generativas não ficaram de fora. Os fornecedores de modelos de fundação, aqueles que podem ser usados para outras aplicações, como o modelo da OpenAI, teriam que avaliar e mitigar possíveis riscos, assim como serem registrados no banco de dados da UE antes de seu lançamento no mercado local.

Os sistemas de IA generativa, baseados nesses modelos de fundação, teriam que cumprir requisitos de transparência, como discriminar que o conteúdo foi gerado por IA, como uma forma de ajudar a distinguir, por exemplo, deepfakes de conteúdos reais. Eles também precisariam garantir salvaguardas contra a geração de conteúdo ilegal, bem como apresentar ao público resumos detalhados dos dados protegidos por direitos autorais usados para seu treinamento.

Inovação

Para garantir que, mesmo com as restrições, haja inovação em IA e apoio a pequenas e médias empresas, os eurodeputados adicionaram isenções para atividades de pesquisa e componentes de IA fornecidos sob licenças de código aberto. A nova lei também promove os chamados sandboxes regulatórios, estabelecidos por autoridades públicas para testar a IA antes de sua implementação.

A proposta busca aumentar o direito dos cidadãos de apresentar queixas sobre sistemas de IA, além de receber explicações sobre decisões baseadas em sistemas de IA de alto risco que afetam significativamente seus direitos fundamentais.

Próximos passos

As discussões sobre regulação de IA na Europa já haviam começado há mais de dois anos, mas o assunto se tornou ainda mais urgente após o lançamento do ChatGPT, que suscitou novos debates sobre os riscos associados a sistemas de IA.

As negociações com o Conselho Europeu sobre o formato final da lei se iniciaram ainda nesta quarta-feira. Agora, os detalhes também serão negociados com os estados membros da UE para que se chegue ao formato final da lei, algo que não deve ocorrer tão cedo.