(Reuters) - O Facebook informou nesta sexta-feira que usaria inteligência artificial para combater a disseminação de fotos íntimas compartilhadas sem a permissão das pessoas, às vezes chamada de 'pornografia vingativa', em suas redes sociais.
A nova tecnologia é adicional a um programa piloto que exigiu representantes treinados para rever imagens ofensivas.
"Usando o aprendizado de máquina e a inteligência artificial, agora podemos detectar proativamente imagens ou vídeos íntimos que são compartilhados sem permissão", disse a gigante das redes sociais em um post no blog. "Isso significa que podemos encontrar este conteúdo antes que alguém o denuncie."
Um membro da equipe de operações da comunidade do Facebook iria rever o conteúdo encontrado pela nova tecnologia, e se for considerada uma imagem ofensiva, irá removê-la ou desativar a conta responsável por espalhá-la, acrescentou a empresa.
O Facebook também lançará uma central de suporte chamada "Não Sem Meu Consentimento" em sua página do centro de segurança para pessoas cujas imagens íntimas foram compartilhadas sem o seu consentimento.
(Por ayanti Chakraborty, Supantha Mukherjee e Sonam Rai em Bangalore)