Por Stephen Nellis
SÃO FRANCISCO, Estados Unidos, (Reuters) - A Apple (NASDAQ:AAPL) (SA:AAPL34) disse nesta quinta-feira que adotará um sistema para verificar fotos em iPhones nos Estados Unidos e identificar se elas coincidem com imagens conhecidas de abuso infantil antes de serem enviadas ao serviço de armazenagem iCloud.
Se imagens de abuso infantil forem detectadas no envio ao serviço, a Apple iniciará uma revisão humana e denunciar o usuário a autoridades, afirmou a empresa. A Apple afirmou que o sistema é projetado para reduzir falsos positivos para 1 caso a cada trilhão.
Outras companhias como o Facebook usam tecnologia semelhante para detectar e denunciar casos de abuso infantil.
O sistema da Apple usa banco de dados mantido por autoridades de imagens de abuso infantil conhecidas e as traduz para "hashes", códigos numéricos que correspondem à cada imagem, mas que não pode ser usado para reconstruí-la.
A companhia fez sua própria implementação do sistema, projetada para detectar imagens editadas, mas similares às imagens originais no banco de dados.
Quando o usuário envia uma imagem ao iCloud, o iPhone cria uma hash da imagem e a compara com o banco de dados. As imagens armazenadas no aparelho não são analisadas, disse a Apple.
Um aspecto importante do sistema é que a Apple checa a imagem antes dela ser transmitida ao iCloud, em vez de fazer isso depois que ela é armazenada nos servidores.
No Twitter, defensores da privacidade e especialistas em segurança afirmaram que o sistema poderá ser eventualmente expandido para bisbilhotar aparelhos em busca de conteúdo genérico considerado como ilegal ou que tenha conteúdo político.
"Independente de eles (Apple) estarem certos ou errados, este sistema abre a porteira para que governos exijam a instalação dele para todos", disse Matthew Green, pesquisador de segurança da Universidade Johns Hopkins.