Por Julia Fioretti
BRUXELAS (Reuters) - As gigantes das mídias sociais Facebook, YouTube, Twitter e Microsoft informaram nesta segunda-feira que estão formando um grupo global de trabalho para combinar os esforços para remover conteúdo terrorista de suas plataformas.
Respondendo à pressão de governos na Europa e nos Estados Unidos após uma onda de ataques por militantes, as companhias disseram que vão compartilhar soluções tecnológicas para retirar conteúdo terrorista, além de desenvolver pesquisas para contrapor o discurso extremista e trabalhar com mais especialistas no combate ao terrorismo.
O Fórum Global de Internet para Combate ao Terrorismo "vai formalizar e estruturar áreas existentes e futuras de colaboração entre nossas companhias e fomentar cooperação com empresas de tecnologia menores, grupos da sociedade civil, acadêmicos, governos e órgãos supranacionais como a União Europeia e a ONU", esclareceram as companhias em comunicado.
A decisão sucede os pedidos de chefes de Estado da Europa para que as empresas de tecnologia estabeleçam um fórum do setor e desenvolvam nova tecnologia para melhorar a detecção automática e a retirada de conteúdo extremista.
A pressão política sobre as companhias aumentou as perspectivas de uma nova legislação em toda a UE, mas até o momento apenas a Alemanha propôs uma lei que multa em até 50 milhões de euros as redes sociais que não removerem publicações de ódio rapidamente.
A Câmara dos Deputados da Alemanha deve votar a legislação nesta semana.
As empresas vão buscar melhorar o trabalho técnico, incluindo o banco de dados criado em dezembro para compartilhar impressões digitais únicas atribuídas automaticamente a vídeos ou fotos de conteúdo extremista.
Elas também devem trocar as melhores práticas em técnicas de identificação de conteúdo, usando aprendizagem automática, bem como definir "métodos padrões de transparência para retirada de conteúdo terrorista."
No começo deste mês, o Facebook revelou seus esforços para remover conteúdo terrorista, em resposta às críticas de políticos de que as gigantes de tecnologia não estavam fazendo o suficiente para impedir grupos militantes de usarem as suas plataformas para propaganda e recrutamento.
Pouco depois foi a vez do Google anunciar medidas adicionais para identificar e remover conteúdo violento ou terrorista de sua plataforma de vídeos, o YouTube.
As gigantes de mídia social disseram que estão trabalhando com empresas menores para ajudá-las a combater conteúdo extremista, além de organizações como o Centro para Estudos Estratégicos e Internacionais.
As quatro companhias têm iniciativas para conter discurso de ódio e usarão o fórum para melhorar os esforços e treinar as organizações da sociedade civil a se engajarem em trabalho similar.