Conforme a indústria avança no desenvolvimento de soluções de inteligência artificial (IA) para as mais variadas verticais, cresce também a necessidade de se definir regras para o seu uso, com o objetivo de minimizar possíveis danos ou pelo menos identificar os responsáveis. Por sinal, a atribuição de responsabilidade em inteligência artificial é um desafio por si só e foi tema de um painel inteiro no Mobile World Congress em Barcelona, nesta segunda-feira, 26.

Uma das convidadas foi a filósofa Paula Boddington, do departamento de ciências computacionais da Universidade de Oxford. “Se a inteligência artificial for autônoma, teremos seu completo controle e conseguiremos prever o que vai acontecer? A IA é disruptiva para o conceito de responsabilidade. Qual responsabilidade tem uma companhia que compra uma solução fechada de IA de outra? Quem é responsável quando o computador disser não? São perguntas simples mas que precisam ser pensadas desde já”, refletiu a filósofa.

Uma das entidades que está discutindo o assunto é a IEEE, que representa os engenheiros eletrônicos do mundo inteiro. Dentro do IEEE há diversos grupos de trabalho debatendo diferentes aspectos éticos relacionados à IA. Uma das questões mais complicadas está na identificação de parcialidade na programação dos algoritmos e como evitá-la. Um dos pontos levantados é a necessidade de haver mais diversidade entre os profissionais de programação. Seria uma maneira de minimizar o risco de uma parcialidade involuntária, sugeriu Aurélie Pols, engenheira que faz parte de um dos grupos de trabalho do IEEE.

Outra ideia em discussão é a de criação de um órgão regulador ao qual os algoritmos fossem submetidos para aprovação antes de sua adoção, de forma parecida como atua a FDA com remédios nos EUA. É um tema polêmico, pois é preciso levar em conta a propriedade intelectual dos algoritmos. “É preciso avaliar o quanto poderia ser aberto. Mas entendemos que não será bom vivermos em uma sociedade com algoritmos que são completas caixas pretas”, disse Pols.