reconhecimento facial

O reconhecimento facial está no olho do furacão do debate sobre regulação de inteligência artificial no mundo inteiro. Afinal, usar a IA para reconhecer suspeitos de crimes em espaços públicos é um método adequado? A resposta da União Europeia é não: na semana passada, a EDPB (Autoridade Europeia de Proteção de Dados, em inglês) recomendou que a tecnologia seja banida da segurança pública de todo o bloco. Na esteira, a comissão de juristas que discute o assunto no Senado Federal para a elaboração de um projeto de lei que regulamenta o assunto também sinalizou esta possibilidade aqui no Brasil. A principal crítica é que a técnica pode reproduzir estruturas discriminatórias e racistas da sociedade. Contudo, duas especialistas ouvidas por Mobile Time questionam a possibilidade de banimento imediato da tecnologia.

Loren Spíndola, coordenadora do grupo de trabalho de IA da Abes e Brazil Public Policy Lead da Microsoft. Foto: divulgação

“A inteligência artificial é cognitiva como o ser humano: ela aprende com o erro. Ao banir de imediato, nunca vamos chegar a uma forma correta, sem vieses, sem riscos. A melhor abordagem neste caso é o uso. Caso contrário, a gente engessa”, observa Loren Spíndola, coordenadora do grupo de trabalho de IA da Abes (Associação Brasileira de Software) e Brazil Public Policy Lead da Microsoft, em entrevista para Mobile Time. “Não seria melhor um ambiente controlado em que a tecnologia pode evoluir? Sabemos sobre o mau uso deste mecanismo em segurança. Mas é como educar um filho: a gente instrui, não proíbe. O banimento não seria o melhor caminho de algo que pode ser muito positivo no futuro”, questiona.

Por sua vez, Dora Kaufman, professora do TIDD (Tecnologia de Inteligências e Design Digital) da PUC-SP, e estudiosa sobre os impactos éticos e sociais de IA, entende que o reconhecimento facial, de fato, traz uma discussão sobre direitos fundamentais. Entretanto, pontua que, da mesma forma que não podemos supervalorizar a tecnologia, ela também não deve ser demonizada.

“Fica parecendo que a gente tem uma sociedade justa, transparente e democrática. Agora vai chegar a IA para atrapalhar tudo isso? Não é bem assim. É preciso lembrar que as decisões humanas são subjetivas e preconceituosas. Decidimos a maioria das coisas sem saber o porquê. A IA pode ser uma oportunidade de sermos mais transparentes, pois, como seres humanos, nunca teremos essa chance”, pondera.

Spíndola concorda. Segundo ela, os algoritmos nos dão a chance de rastrear de que forma foram treinados, como os testes foram feitos – e assim podem ser ajustados ou melhorados caso não tenham sido elaborados com responsabilidade, ética, segurança e privacidade. “Você não explica um ser humano. Mas a inteligência artificial pode ser explicada, sim”, finaliza.