CINGAPURA (Reuters) - Companhias de Cingapura a Finlândia estão correndo para desenvolver softwares de inteligência artificial que podem detectar e bloquear automaticamente vídeos de assassinatos e mutilação antes de se tornarem virais em redes sociais. Por enquanto nenhuma conseguiu resolver o problema completamente.
Um tailandês que filmou a si mesmo assassinando a filha de 11 messes em um vídeo ao vivo no Facebook nesta semana é o mais recente de uma série de crimes violentos transmitidos ao vivo em redes sociais. O incidente levantou questionamentos sobre como o sistema de denúncia do Facebook funciona e como conteúdo violento pode ser detectado mais rapidamente.
A Google, que enfrenta problemas similares com seus serviços no YouTube, e o Facebook estão trabalhando em suas próprias soluções. A maioria está se focado na aprendizagem em profundidade: um tipo de inteligência artificial que usa redes neurais computadorizadas que "ensina" computadores a identificar uma cena violenta em um vídeo.
Atos violentos podem incluir ações de hackers ou sangue, disse Abhijit Shanbhag, presidente-executivo da Graymatics. O fundador da empresa de análise de vídeos Clarifai disse que seu algoritmo também pode reconhecer objetos em um vídeo que poderiam ser precursores da violência, como facas e armas.
Outra limitação é que a violência pode ser subjetiva. A companhia PicPurify também está trabalhando para identificar cenas de violência que não envolvem sangue ou armas. O presidente-executivo da PicPurify Yann Mareschal disse que tortura psicológica é difícil de identificar.
Algumas companhias disseram que a adaptação da indústria está sendo mais lenta do que poderia, em parte por causa da despesa adicional. Empresas que gerenciam o conteúdo gerado por usuários podem sofrer cada vez mais pressões revogatórias, disse Mika Rautiainen fundador e presidente-executivo da Valossa, que encontra conteúdo indesejável em mídia, entretenimento e empresas publicitárias.
(Por Jeremy Wagstaff)