Enquanto o Brasil criou uma estratégia nacional de IA considerada extremamente superficial por especialistas, a União Europeia ganha um primeiro esboço da sua regulamentação da tecnologia. O documento, que deve ser submetido ao Parlamento Europeu nas próximas semanas para deliberação, vazou e está circulando entre especialistas da área nesta semana. Vale lembrar que a União Europeia vem se destacando mundialmente pelo seu esforço de legislar e regulamentar novas tecnologias de forma a preservar direitos humanos e valores democráticos, servindo de inspiração para vários outros países, vide o exemplo da GDPR, que inspirou a LGPD brasileira. No caso de inteligência artificial, a Europa sai na frente mais uma vez e sua regulamentação provavelmente servirá de base para muitas outras mundo afora.

Mobile Time teve acesso ao texto e destaca abaixo alguns dos pontos mais relevantes, como certas proibições de uso de inteligência artificial e a definição de sistemas de alto risco, para os quais há diversas obrigações a serem cumpridas. Há também determinações para proteger a sociedade do uso de técnicas de deep fake.

Objetivos

O principal objetivo da regulamentação é estabelecer regras para a operação de sistemas de inteligência artificial considerados de “alto risco” na União Europeia. Outros objetivos são: definir regras para transparência de sistemas de IA que interagem com pessoas; e regras para sistemas de IA que geram e manipulam imagens, áudios e vídeos. 

A regulamentação também pretende garantir condições para que o mercado europeu de inteligência artificial se desenvolva de forma saudável, respeitando a legislação do bloco.

Vale destacar que a regulamentação não abrange o uso de IA para fins militares.

Definição

O documento define inteligência artificial ou um sistema de IA como um software desenvolvido com uma ou mais abordagens e técnicas para alcançar determinados objetivos definidos por humanos, gerando como resultado conteúdos, previsões, recomendações ou decisões que influenciam ambientes reais ou virtuais. 

Diz também que um sistema de IA é desenhado para operar com variados níveis de autonomia e pode fazer parte de um produto, mesmo quando não estiver dentro dele, e que pode servir para automatizar parcialmente ou totalmente certas atividades, incluindo a provisão de um serviço, o gerenciamento de um processo, a tomada de decisão ou a tomada de uma ação.  

Proibições

A regulamentação define uma série de proibições no uso da tecnologia. Ficam proibidos:

1 – Sistemas de IA desenvolvidos ou usados de maneira a manipular o comportamento humano, opiniões ou decisões através de arquitetura de escolha ou outros elementos de user interface, levando uma pessoa a se comportar, formar opinião ou tomar uma decisão em seu detrimento.

2 – Sistemas de IA desenvolvidos ou usados de maneira a explorar informação ou previsões sobre uma pessoa ou grupo mirando suas vulnerabilidades ou circunstâncias especiais, provocando que uma pessoa se comporte, forme opinião ou tome decisão em seu detrimento.

3 – Sistemas de IA usados para vigilância indiscriminada e de maneira generalizada contra todas as pessoas, sem qualquer diferenciação entre elas. Métodos de vigilância podem incluir desde o uso em larga escala de sistemas de IA para monitoramento ou rastreamento de pessoas através de interceptação direta ou acesso a comunicação, localização, metadados e outros dados pessoais coletados em ambientes físicos e digitais ou através de agregação automática e análise desses dados de várias fontes.

4 – Sistemas de IA usados para ranqueamento social de pessoas sem propósito específico. O ranqueamento social sem propósito específico consiste na avaliação ou classificação em larga escala da confiabilidade de uma pessoa baseada no seu comportamento social em múltiplos contextos e nas características presumidas de sua personalidade, com a pontuação resultante levando a: 1) tratamento sistematicamente prejudicial de uma pessoa ou grupo em contextos sociais não relacionados ao contexto em que os dados foram originalmente gerados ou coletados; 2) tratamento prejudicial de uma pessoa ou grupo de maneira desproporcional à gravidade do seu comportamento.

IA de alto risco

A regulamentação define como um sistema de IA de alto risco aquele que possa causar:

1 – Ferimento ou morte de uma pessoa ou dano a uma propriedade

2 – sistemáticos impactos adversos para a sociedade como um todo, incluindo a ameaça ao funcionamento dos processos democráticos e instituições do estado, o meio ambiente e a saúde pública.

3 – disrupção significativa na provisão de serviços essenciais para atividades econômicas e sociais

4 – impacto adverso em oportunidades financeiras, educacionais ou profissionais de uma pessoa

5 – impacto adverso para uma pessoa ou grupo no acesso a serviços públicos ou qualquer forma de assistência pública

6 – impacto adverso em direitos fundamentais, particularmente no direito à privacidade e proteção de dados, direito à não discriminação, liberdade de expressão e associação, liberdade individual, direito à propriedade, direito a um processo legal eficiente e justo, e direito à proteção internacional (asilo).

Para os sistemas de IA classificados como de alto risco, a regulamentação proposta prevê uma série de obrigações relacionadas à forma como os dados são coletados, armazenados e tratados. Há também obrigações de transparência para esses sistemas de IA. E há regras específicas para cada ator do mercado, como provedores de serviços, importadores, distribuidores, representantes autorizados etc.

A regulamentação estabelece ainda a criação de um certificado de conformidade para sistemas de IA, que poderá ser concedido por autoridades nacionais designadas para essa finalidade.

Sandbox, PMEs e Conselho Europeu de IA

Para não engessar o desenvolvimento de IA na União Europeia, a regulamentação permite a criação de ambientes controlados (sandboxes) para testes de novos produtos. Startups e pequenas e médias empresas terão acesso privilegiado a esses sandboxes.

O regulamento também prevê a criação de um Conselho Europeu de Inteligência Artificial, com representantes de todas as nações que compõem a UE.

Deep fake

Por fim, o documento procura proteger a sociedade contra o uso de deep fake, determinando que qualquer sistema de IA utilizado para gerar ou manipular conteúdo em imagem, áudio ou vídeo que possa falsificar a autenticidade de uma pessoa é obrigado a informar sobre tal manipulação.

Repercussão

O advogado especializado em direito digital e sócio da Pellon de Lima Advogados Rafael Pellon comentou o movimento da União Europeia: “No momento há uma disputa China e EUA para ver quem avança mais rápido com mais aplicações de IA, enquanto a União Europeia parece preferir não entrar nessa disputa e preferir bloquear o uso maléfico de IA, ou que prejudique sua população. Mas ao escolher esse caminho corre o risco de ficar para trás nessa corrida tecnológica”. E acrescentou: “Estamos indo para um mundo em que a privacidade vira um valor estratégico. Daqui a 20 anos teremos distopia em que alguns lugares terão exploração e implementação de IA muito mais dentro da vida das pessoas e de suas existências, no sentido em que a vida em sociedade vai depender de agradar esses algoritmos, enquanto em outras regiões será algo mais humanista, em que o robô ou algoritmo não terá tanto poder”.