Por Katie Paul
NOVA YORK (Reuters) - O Conselho de Supervisão da Meta afirmou nesta quinta-feira que as regras da empresa "não são suficientemente claras" ao proibir representações sexualmente explícitas de pessoas reais geradas por inteligência artificial e pediu mudanças para impedir que tais imagens circulem em suas plataformas.
O conselho, que é financiado pela gigante da mídia social mas opera de forma independente, emitiu sua decisão depois de analisar duas publicações pornográficas falsas de mulheres famosas criadas usando inteligência artificial e postadas no Facebook (NASDAQ:META) e Instagram, de propriedade da Meta.
A Meta disse que analisaria as recomendações do conselho e forneceria uma atualização sobre quaisquer mudanças adotadas.
Em seu relatório, o conselho identificou as duas mulheres apenas como figuras públicas femininas da Índia e dos Estados Unidos, citando preocupações com a privacidade.
O conselho constatou que ambas as imagens violavam a regra da Meta que proíbe o "photoshop sexualizado depreciativo", que a empresa classifica como uma forma de bullying e assédio, e disse que a Meta deveria tê-las removido imediatamente.
No caso envolvendo a mulher indiana, a Meta não analisou um relato de usuário sobre a imagem em 48 horas, o que fez com que a solicitação fosse fechada automaticamente sem que nenhuma ação fosse tomada.
O usuário recorreu, mas a empresa novamente se recusou a agir e só reverteu o curso depois que a diretoria assumiu o caso, disse.
No caso da celebridade norte-americana, os sistemas da Meta removeram automaticamente a imagem.
"As restrições a esse conteúdo são legítimas", disse o conselho. "Dada a gravidade dos danos, a remoção do conteúdo é a única maneira eficaz de proteger as pessoas afetadas."
O conselho recomendou que a Meta atualize sua regra para esclarecer seu escopo, dizendo, por exemplo, que o uso da palavra "photoshop" é "muito restrito" e que a proibição deve abranger uma ampla gama de técnicas de edição, incluindo IA generativa.