A técnica que trabalha com a manipulação de fotos e vídeos por meio de inteligência artificial (IA), mais conhecida como deepfake, já é utilizada em vários tipos de golpes, em que o fraudador tenta se apropriar da identidade da vítima, comentou o vice-presidente de global solutions da Aware, Mário Cesar Santos, durante o Mobi-ID, evento organizado por Mobile Time, nesta terça-feira, 7, em São Paulo.

O deepfake pode gerar impacto nos negócios das empresas, resultando em danos à reputação da marca e ataques aos sistemas de gerenciamento de identificação e acesso, alertou. Por isso, a integridade dos sistemas biométricos é assegurada a partir da camada de liveness (prova de vida). “Mas não é um problema de solução trivial”, apontou Santos.

Há diversas soluções para identificar a manipulação da imagem com liveness detection, com algoritmos baseados em deep learning como a detecção de movimento; biometria comportamental; sensores 3D; criptografia; análise do dispositivo, sensores e textura; teste de desafios; inteligência artificial e machine learning (ML). Ele ressalta que as características que distinguem uma imagem real de uma falsificada podem não ser visíveis para um olho humano, mas são identificadas por um algoritmo. A ferramenta tem apresentado excelentes respostas ao problema, segundo o vice-presidente.

Em 2024, a Aware prevê que 100% de seus algoritmos biométricos serão baseados em IA. E acredita que a fusão de múltiplas modalidades biométricas potencializa a acuracidade do liveness, como, por exemplo, a combinação das biometrias facial e vocal.