O uso de inteligência artificial para prever crimes cometidos por pessoas deve ser proibido. Essa é uma das alterações propostas pelas comissões de mercado interno e proteção do consumidor e de liberdades civis, justiça e assuntos internos do Parlamento Europeu ao projeto de lei de regulação de inteligência artificial da União Europeia.

“O policiamento preditivo deve ser adicionado às práticas proibidas porque viola a presunção da inocência assim como a dignidade humana”, justificam os parlamentares europeus que assinam o relatório, cujo rascunho foi disponibilizado ao público.

A primeira versão do referido projeto de lei foi apresentada no ano passado e inclui uma lista de utilizações proibidas para inteligência artificial, assim como uma outra com aquelas consideradas de “alto risco” e que precisam atender a regras mais rígidas. Além do policiamento preditivo, já estavam proibidos:

1 – Sistemas de IA desenvolvidos ou usados de maneira a manipular o comportamento humano, opiniões ou decisões através de arquitetura de escolha ou outros elementos de user interface, levando uma pessoa a se comportar, formar opinião ou tomar uma decisão em seu detrimento.

2 – Sistemas de IA desenvolvidos ou usados de maneira a explorar informação ou previsões sobre uma pessoa ou grupo mirando suas vulnerabilidades ou circunstâncias especiais, provocando que uma pessoa se comporte, forme opinião ou tome decisão em seu detrimento.

3 – Sistemas de IA usados para vigilância indiscriminada e de maneira generalizada contra todas as pessoas, sem qualquer diferenciação entre elas. Métodos de vigilância podem incluir desde o uso em larga escala de sistemas de IA para monitoramento ou rastreamento de pessoas através de interceptação direta ou acesso a comunicação, localização, metadados e outros dados pessoais coletados em ambientes físicos e digitais ou através de agregação automática e análise desses dados de várias fontes.

4 – Sistemas de IA usados para ranqueamento social de pessoas sem propósito específico. O ranqueamento social sem propósito específico consiste na avaliação ou classificação em larga escala da confiabilidade de uma pessoa baseada no seu comportamento social em múltiplos contextos e nas características presumidas de sua personalidade, com a pontuação resultante levando a: 1) tratamento sistematicamente prejudicial de uma pessoa ou grupo em contextos sociais não relacionados ao contexto em que os dados foram originalmente gerados ou coletados; 2) tratamento prejudicial de uma pessoa ou grupo de maneira desproporcional à gravidade do seu comportamento.

Deep fake

Outra novidade proposta pelas comissões é para que aplicações que permitem edições de vídeo para a produção de “deep fakes” sejam consideradas de alto risco, assim como aplicações para a produção de textos complexos, como notícias, artigos de opinião, roteiros, romances e artigos científicos. No texto original do projeto está previsto apenas a obrigatoriedade de se informar ao público quando houver qualquer tipo de manipulação de vídeo com técnicas de deep fake.