Por Julia Fioretti
(Reuters) - O Facebook forneceu nesta quinta-feira detalhes adicionais sobre seus esforços para remover conteúdo relacionado ao terrorismo, em uma resposta à pressão política na Europa por conta de grupos militantes usando a rede social para propaganda e recrutamento.
O Facebook aumentou o uso de inteligência artificial, como reconhecimento de imagem e compreensão da linguagem, para identificar e remover conteúdo rapidamente, explicaram Monika Bickert, diretora de administração de política global do Facebook, e Brian Fishman, gerente de política antiterrorismo, em publicação em um blog.
A maior rede social do mundo, com 1,9 bilhão de usuários, o Facebook nem sempre foi tão aberto sobre suas operações, e seu comunicado foi visto com ceticismo por algumas pessoas que criticaram companhias norte-americanas de tecnologia por se moverem lentamente.
“Sabemos que grupos extremistas tem usado a internet como arma há anos”, disse Hany Farid, cientista da computação no Dartmouth College que estuda maneiras de acabar com material extremista online.
“Então por que, há anos, eles têm colocado poucas pessoas na moderação? Por que, há anos, eles estão atrás em inovação?”, perguntou Farid. Ele chamou o comunicado do Facebook de ação de relações públicas em resposta a governos europeus.
O Ministério do Interior do Reino Unido elogiou os esforços do Facebook, mas disse que companhias de tecnologia precisam ir além.
“Isto inclui o uso de soluções técnicas para que conteúdo terrorista possa ser identificado e removido antes de ser amplamente disseminado, e, finalmente, impedido de ser publicado em primeiro lugar”, disse nesta quinta-feira um porta-voz do ministério.
A Alemanha, a França e o Reino Unido, países onde civis foram mortos e feridos em ataques a tiros e bombas por militantes islâmicos nos anos recentes, pressionaram o Facebook e outros provedores, como o Google e Twitter, a fazer mais para remover conteúdo militante e discursos de ódio.
Autoridades do governo ameaçaram multar o Facebook e remover as amplas proteções legais que a rede possui contra responsabilidade por conteúdo publicado por seus usuários.
O Facebook usa inteligência artificial para reconhecimento de imagens que permite que a companhia veja se uma foto ou vídeo sendo publicado corresponde a uma foto ou vídeo conhecido de grupos que definiu como terroristas, como o Estado Islâmico, al Qaeda e suas ramificações, informou a companhia em publicação no blog.
O YouTube, Facebook, Twitter e Microsoft criaram no ano passado um banco de dados comum de impressões digitais automaticamente atribuídas a vídeos ou fotos de conteúdo militante para ajudar uns aos outros a identificar o mesmo conteúdo em suas plataformas.
De forma similar, o Facebook agora analisa textos que já foram removidos por apoio a organizações militantes para desenvolver sinais para tais propagandas.
“Mais de metade das contas que removemos por terrorismo são contas que nós mesmos encontramos; isto é algo que queremos que nossa comunidade saiba para que entenda que estamos realmente comprometidos em tornar o Facebook um ambiente hostil para terroristas”, disse Bickert em entrevista por telefone.
Perguntada sobre o motivo do Facebook estar se abrindo sobre políticas que há tempos se negava a discutir, Bickert disse que ataques recentes naturalmente iniciaram conversas entre pessoas sobre o que poderia ser feito para enfrentar a militância.
“Estamos falando sobre isto porque nós estamos vendo esta tecnologia realmente começar a se tornar uma parte importante de como tentamos encontrar este conteúdo”, disse.
(Reportagem de Julia Fioretti; Reportagem adicional de David Ingram, em San Francisco, David Milliken, em Londres, e Michel Rose, em Paris)