A Casa Branca divulgou nesta quarta-feira, 5, um documento que propõe regras de segurança e transparência em torno da inteligência artificial. São sugestões que podem ser implementadas de forma voluntária – ou seja, não são obrigatórias – para o setor privado e público, que visam estabelecer princípios sobre as maneiras pelas quais os algoritmos de IA devem ser implantados. De todo modo, a ideia é que governo estadunidense sirva de exemplo e aplique essas recomendações.

Batizada de AI Bill of Rights (Declaração de Direitos em IA, na tradução livre para o português), o documento de 73 páginas estabelece princípios em cinco pontos elaborados sob a tutela do Office of Science & Technology Policy (OSTP, na sigla em inglês ou Secretaria de Política Científica e Tecnológica em português) a partir de feedback de pessoas da sociedade civil, empresas (como Microsoft) e grupos de direitos humanos e ética em IA. São esses os pontos: Sistemas Seguros e Eficazes; Proteções contra discriminação algorítmicas; Dados privados; Aviso e Explicação; Alternativas humanas, consideração e fallback.

A Declaração de Direitos em IA exige que os sistemas de inteligência artificial sejam comprovadamente seguros e eficazes por meio de testes e consultas às partes interessadas, além do monitoramento contínuo dos sistemas em produção. O documento afirma que os sistemas de IA devem ser projetados para proteger comunidades e indivíduos de tomadas de decisão tendenciosas, impossibilitando a discriminação algorítmica. E sugere fortemente que os usuários possam optar por não interagir com um sistema de IA, se quiserem, por exemplo, no caso de uma falha do sistema.

O plano proposto pela Casa Branca, iniciado no ano passado, postula que os usuários devem ter controle sobre como seus dados são usados – seja na tomada de decisões ou no desenvolvimento de um sistema de IA – e informados em linguagem simples sobre quando um sistema automatizado está sendo usado.

O documento não é uma lei e, portanto, sua adoção é voluntária para as empresas, embora a Casa Branca planeje “liderar pelo exemplo” e fazer com que as agências federais se alinhem à declaração. Mas as companhias privadas não estão sujeitas à Declaração de Direitos em IA.

Sistemas Seguros e Eficazes

O usuário deve ser protegido de sistemas inseguros ou ineficazes. Os sistemas automatizados devem ser desenvolvidos com a consulta de diversas comunidades, partes interessadas e especialistas de domínio para identificar preocupações, riscos e impactos potenciais do sistema. Os sistemas devem passar por testes de pré-implantação, identificação e mitigação de riscos e monitoramento contínuo que demonstrem que são seguros e eficazes com base no uso pretendido, mitigação de resultados inseguros, incluindo aqueles além do uso pretendido, e aderência aos padrões específicos do domínio.

Os sistemas devem ser projetados para protegê-lo de forma proativa contra danos decorrentes de usos ou impactos não intencionais, mas previsíveis, de sistemas automatizados. O documento recomenda avaliação independente e relatórios que confirmem que o sistema é seguro e eficaz.

Segue um resumo de cada um dos tópicos:

Proteções contra discriminação algorítmicas

O usuário de um sistema de IA não deve enfrentar discriminação por algoritmos e os sistemas devem ser usados e projetados de forma equitativa.

De acordo com o documento, a discriminação algorítmica ocorre quando os sistemas automatizados contribuem para tratamentos diferentes injustificados ou impactam desfavorecendo as pessoas com base em sua raça, cor, etnia, sexo (incluindo gravidez, parto e condições médicas relacionadas, identidade de gênero, status interssexual e orientação sexual), religião, idade, nacionalidade, deficiência, status de veterano, informações genéticas ou qualquer outra classificação protegida por lei. O desenvolvedor deve tomar medidas proativas para que isso não ocorra.

Dados privados

As empresas devem proteger o usuário de práticas abusivas de dados por meio de proteções integradas e deve ter controle sobre como os dados pessoais são usados. O cidadão deve estar protegido contra violações de privacidade por meio de escolhas de design que garantam que tais proteções sejam incluídas por padrão, inclusive garantindo que a coleta de dados esteja em conformidade com as expectativas razoáveis e que apenas os dados estritamente necessários para o contexto específico sejam coletados.

Quaisquer solicitações de consentimento devem ser breves, compreensíveis em linguagem simples e fornecer ao usuário gerência sobre a coleta de dados e o contexto específico de uso.

Em domínios sensíveis, dados e inferências relacionadas devem ser usados apenas para as funções necessárias, e o usuário deve estar protegido por revisão ética e proibições de uso.

A população deve estar livre de vigilância descontrolada; as tecnologias de vigilância devem estar sujeitas a uma supervisão intensificada que inclua pelo menos uma avaliação pré-implantação de seus danos potenciais e limites de escopo para proteger a privacidade e as liberdades civis.

Aviso e Explicação

Os sistemas automatizados devem estar em evidência, de modo que seu usuário perceba que ele está conversando com uma máquina e não com um humano.

Projetistas, desenvolvedores e implementadores de sistemas automatizados devem fornecer documentação em linguagem simples, acessível, incluindo descrições claras do funcionamento geral do sistema e o papel que a automação desempenha. Esse aviso deve ser mantido atualizado e as pessoas afetadas pelo sistema devem ser notificadas sobre caso de uso significativo ou alterações de funcionalidade chave.

Alternativas humanas, consideração e fallback

O usuário deverá ter a opção, se assim o desejar, de acessar um humano enquanto se relaciona com um sistema automatizado.

A opção humana e o fallback devem ser acessíveis, equitativos, eficazes, mantidos, acompanhados de treinamento apropriado do operador.

Na Europa e no Brasil

Ao contrário da Declaração de Direitos em IA dos Estados Unidos – que é uma série de princípios e recomendações – a Europa avança com uma regulação para todos, empresas e setor público. Em abril do ano passado, a União Europeia apresentou o primeiro esboço da lei que procura estabelecer regras para a operação de sistemas de inteligência artificial considerados de “alto risco”. Outros objetivos são: definir regras para transparência de sistemas de IA que interagem com pessoas; e regras para sistemas de IA que geram e manipulam imagens, áudios e vídeos.

No Brasil, o governo criou, também em abril de 2021, a Estratégia Brasileira de Inteligência Artificial (EBIA), com propósito semelhante ao estadunidense: criar diretrizes estabelecidas pelo governo federal para guiar políticas públicas no desenvolvimento e no uso de inteligência artificial. O documento, contudo, foi criticado por especialistas à época por ser vago.