Por Paresh Dave
SAN FRANCISCO (Reuters) - O Facebook (NASDAQ:FB) informou nesta quarta-feira que moderadores de empresas removeram no último trimestre 8,7 milhões de imagens de nudez infantil com a ajuda de um software não revelado que automaticamente sinaliza essas fotos.
A ferramenta de aprendizado de máquina lançada no ano passado identifica imagens que contêm nudez e criança, permitindo um maior controle da regra do Facebook que proíbe fotos de menores em um contexto sexualizado.
Um sistema semelhante também divulgado na quarta-feira identifica usuários envolvidos em "aliciamento" ou em fazer amizade com menores para exploração sexual.
A chefe global de segurança do Facebook, Antigone Davis, disse à Reuters em entrevista que a "máquina nos ajuda a priorizar" e "filtrar de forma mais eficiente" conteúdo problemático para a equipe treinada de revisores da empresa.
A empresa está explorando a aplicação da mesma tecnologia em seu aplicativo Instagram.
Sob pressão de reguladores e legisladores, o Facebook prometeu acelerar a remoção de material extremista e ilícito. Programas de aprendizado de máquina que filtram os bilhões de conteúdos que os usuários publicam a cada dia são essenciais para o seu plano.
O aprendizado de máquina é imperfeito e as agências de notícias e anunciantes estão entre as que se queixaram este ano dos sistemas automatizados do Facebook de terem bloqueado erroneamente suas publicações.
Davis disse que os sistemas de segurança infantil cometem erros, mas os usuários podem recorrer.
"Preferimos errar do lado da cautela com as crianças", disse ela.
As regras do Facebook há anos proibem até mesmo fotos de crianças com pouca roupa, publicadas com "boas intenções", por preocupações de como outros possam abusar dessas imagens.
Antes do novo software, o Facebook confiava nos usuários ou em seus filtros de nudez para adultos para capturar imagens de crianças. Um sistema separado bloqueia a pornografia infantil que tenha sido previamente denunciada às autoridades.
O Facebook não tinha ainda divulgado dados sobre remoção de imagens de nudez infantil, embora algumas tenham sido incluídas entre os 21 milhões de postagens e comentários removidos no primeiro trimestre por atividade sexual e nudez de adultos.
O Facebook disse que o programa, que aprendeu com sua coleção de fotos de adultos nus e crianças vestidas, levou a mais remoções. O programa faz exceções para a arte e a história, como a foto ganhadora do Prêmio Pulitzer de uma garota nua fugindo de um ataque de napalm da Guerra do Vietnã.
Michelle DeLaune, diretora de operações do Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), disse que a organização espera receber cerca de 16 milhões de dicas sobre pornografia infantil em todo o mundo este ano do Facebook e de outras empresas de tecnologia, contra 10 milhões no ano passado.