A Apple lançou recentemente nos Estados Unidos um sistema no iCloud para sinalizar e denunciar às autoridades dispositivos de usuários que contenham imagens de abuso sexual infantil (Child Sexual Abuse Material, ou CSAM, em inglês). Apesar de ser saudado por defensores dos direitos e proteção à criança, a solução foi contestada por aqueles que identificaram a ferramenta como uma forma de invadir a privacidade dos usuários, que temem que ela possa ser ajustada e usada para censurar outros tipos de conteúdo em dispositivos.

Para responder, a Apple criou um arquivo de perguntas e respostas de seis páginas no qual afirma que seu sistema é uma melhoria em relação às abordagens padrão da indústria porque usa seu controle de hardware e matemática sofisticada para aprender o menos possível sobre as imagens no telefone de uma pessoa ou que estejam em conta na nuvem, enquanto sinaliza pornografia infantil ilegal em seus servidores. Ele não verifica imagens reais, apenas compara hashes, os números exclusivos que correspondem aos arquivos de imagem.

De acordo com o noticiário internacional, críticos argumentam que o sistema de varredura, que faz hash de imagens no dispositivo de um usuário e compara a hash com imagens conhecidas de material de abuso sexual, também cria uma porta dos fundos autoritária que os governos podem usar para espionar seu povo, reprimir dissidentes políticos ou fazer cumprir políticas anti-LGBTQI+.

A empresa de Tim Cook respondeu no documento que “não atenderá a nenhum pedido do governo para expandir” a ferramenta.

As medidas

Ao todo, existem três medidas diferentes em ação nos planos da Apple de modo que as novas ferramentas de comunicação permitam que os responsáveis das crianças tenham um maior controle da navegação online de seus filhos. O iMessage, por exemplo, usará aprendizado de máquina para alertar sobre conteúdo confidencial, enquanto mantém as comunicações privadas ilegíveis pela Apple.

Em seguida, iOS e iPadOS usarão novos aplicativos de criptografia para ajudar a limitar a disseminação de material contendo abuso sexual infantil online. De acordo com o comunicado da empresa, a detecção desse tipo de conteúdo ajudará a Apple a fornecer informações valiosas para as autoridades policiais sobre coleções de imagens de abuso infantil no iCloud Photos.

Por fim, as atualizações da Siri e da Pesquisa fornecem a pais e filhos mais informações e ajuda se eles se depararem com situações inseguras. A Siri e a Pesquisa também intervêm quando os usuários tentam pesquisar tópicos relacionados a material de abuso sexual infantial (CSAM, na sigla em inglês).

Esses recursos chegarão ainda este ano em atualizações para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey

A Apple não é a única em seus esforços para livrar seu armazenamento em nuvem de imagens ilegais de pornografia infantil. Outros serviços em nuvem já fazem isso. O Google usa a tecnologia de hashing desde 2008 para identificar imagens ilegais em seus serviços. O Facebook disse em 2019 que removeu 11,6 milhões de peças de conteúdo relacionadas à nudez infantil e exploração sexual infantil em apenas três meses.