MENLO PARK, Califórnia (Reuters) - O Facebook está desenvolvendo uma alerta automático para conteúdos ofensivos em transmissões de vídeo ao vivo, elevando o uso de inteligência artificial para monitorar conteúdo, disse o diretor de aprendizado de máquinas da empresa, Joaquin Candela.
A rede social está envolvida em várias controvérsias sobre moderação de conteúdo, em meio a um clamor internacional após a remoção de uma icônica foto da Guerra do Vietnã devido à nudez, até permitir a disseminação de notícias falsas em seu site.
O Facebook historicamente tem confiado principalmente em seus usuários para reportar postagens ofensivas, que então são verificadas por funcionários do Facebook seguindo os padrões da comunidade. Decisões sobre problemas de conteúdo especialmente espinhosos, que podem exigir mudanças de política da empresa são tomadas por grandes executivos da companhia.
Candela disse que o Facebook usa cada vez mais a inteligência artificial para encontrar conteúdos ofensivos. É "um algoritmo que detecta nudez, violência ou qualquer uma das coisas que não está de acordo com nossas políticas", ele disse.
A empresa já estava trabalhando no uso de sinalização automática do conteúdos extremistas, como a Reuters havia noticiado em junho. Agora, o sistema automatizado também está sendo testado no Facebook Live, o serviço de transmissão que permite que usuários façam vídeos ao vivo.
O uso da inteligência artificial para sinalizar vídeos ao vivo ainda está em pesquisa e tem dois desafios, disse Candela.
"Um, o algoritmo computacional tem que ser rápido e acho que podemos nos esforçar nisso, e o outro é que você precisa priorizar as coisas da maneira certa para que um ser humano olhe aquilo, um especialista em nossas políticas, e o tire do ar".
(Por Kristina Cooke)