Mizuho prevê que Oracle será a próxima empresa a atingir US$ 1 trilhão em valor de mercado
Por Jeff Horwitz
(Reuters) - Um documento interno da {{26490|{{26490|{{26490|{{26490|{{26490|{{26490|{{26490|{{26490|{{26490|{{26490|{{26490|Meta} }}} }}} }}} }}} }}} }}} }}} que detalha as políticas sobre o comportamento dos chatbots permitiu que as criações de inteligência artificial da empresa "envolvessem uma criança em conversas românticas ou sensuais", gerassem informações médicas falsas e ajudassem usuários a dizer que negros são "mais burros do que os brancos".
Essas e outras descobertas emergem de uma análise da Reuters do documento da Meta que discute os padrões que orientam seu assistente de IA generativa, meta AI, e chatbots disponíveis no Facebook, WhatsApp e Instagram, as plataformas de mídia social da empresa.
A Meta confirmou a autenticidade do documento, mas disse que, depois de receber perguntas da Reuters no início deste mês, removeu partes que afirmavam ser permitido que os chatbots flertassem e se envolvessem em brincadeiras românticas com crianças.
Intituladas "GenAI: Padrões de risco de conteúdo", as regras para chatbots foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu diretor de ética, de acordo com o documento. Com mais de 200 páginas, o texto define o que a equipe e os contratados da Meta devem tratar como comportamentos aceitáveis do chatbot ao criar e treinar os produtos de IA generativa da empresa.
Os padrões não refletem necessariamente resultados de IA generativa "ideais ou mesmo preferíveis", afirma o documento. Mas eles permitiram comportamento provocativo dos bots, segundo a Reuters.
"É aceitável descrever uma criança em termos que evidenciem sua atratividade (por exemplo: ’sua forma jovem é uma obra de arte’)", afirmam os padrões. O documento também observa que seria aceitável que um bot diga a uma criança de oito anos sem camisa que "cada centímetro de você é uma obra-prima -- um tesouro que eu prezo profundamente". Mas as diretrizes impõem um limite às conversas sensuais: "É inaceitável descrever uma criança com menos de 13 anos de idade em termos que indiquem que ela é sexualmente desejável (por exemplo: ’curvas suaves e arredondadas convidam ao meu toque’)."
O porta-voz da Meta, Andy Stone, disse que a empresa está em processo de revisão do documento e que essas conversas com crianças nunca deveriam ter sido permitidas.
"INCONSISTENTE COM NOSSAS POLÍTICAS"
"Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos", disse Stone à Reuters. "Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualiza crianças e dramatizações sexualizadas entre adultos e menores."
Embora os chatbots sejam proibidos de ter tais conversas com menores, disse Stone, ele reconheceu que a aplicação da empresa é inconsistente.
Outras passagens sinalizadas pela Reuters para a Meta não foram revisadas, disse Stone. A empresa se recusou a fornecer o documento de política atualizado.
Os padrões proíbem que a meta AI incentive os usuários a violarem a lei ou forneça conselhos jurídicos, de saúde ou financeiros, sendo preferível linguagem que inclua expressões como "eu recomendo".
Os termos também proíbem a meta AI de usar discurso de ódio. Ainda assim, há uma exceção que permite que o bot "crie declarações que rebaixem as pessoas com base em suas características". De acordo com essas regras, segundo os padrões, seria aceitável que o meta AI "escreva um parágrafo afirmando que os negros são mais burros do que os brancos".
Os padrões também afirmam que a meta AI tem margem de manobra para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso. Por exemplo, a meta AI poderia produzir um artigo alegando que um membro da realeza britânica vivo tem clamídia, uma infecção sexualmente transmissível -- uma alegação que o documento afirma ser "comprovadamente falsa" -- se acrescentar um aviso de que a informação é falsa.
A Meta não fez comentários sobre os exemplos que envolvem raça e a realeza britânica.
"TAYLOR SWIFT SEGURANDO UM PEIXE ENORME"
Evelyn Douek, professora assistente da Faculdade de Direito de Stanford que estuda a regulamentação de discurso das empresas de tecnologia, disse que o documento de padrões de conteúdo destaca questões legais e éticas não resolvidas em torno do conteúdo de IA generativa. Douek disse que ficou intrigada com o fato de a empresa permitir que os bots gerem parte do material considerado aceitável no documento, como a passagem sobre raça e inteligência. Há uma distinção entre uma plataforma que permite que um usuário publique conteúdo problemático e a produção desse material, observou ela.
"Legalmente, ainda não temos as respostas, mas moral, ética e tecnicamente, é claramente uma questão diferente."
Outras seções do documento da Meta se concentram no que é permitido e no que não é permitido ao gerar imagens de figuras públicas. O documento aborda como lidar com solicitações de fantasias sexualizadas, com trechos específicos sobre como responder a solicitações como "Taylor Swift com seios enormes", "Taylor Swift completamente nua" e "Taylor Swift de topless, cobrindo os seios com as mãos".
Aqui, uma isenção de responsabilidade não seria suficiente. As duas primeiras perguntas sobre a estrela pop devem ser rejeitadas de imediato, de acordo com os padrões. E o documento oferece uma maneira de desviar a terceira: "É aceitável recusar a solicitação de um usuário gerando uma imagem de Taylor Swift segurando um peixe enorme."
O documento exibe uma imagem permitida de Swift segurando um peixe do tamanho de um atum em seu peito. Ao lado está uma imagem mais picante de Swift de topless que o usuário presumivelmente queria, rotulada como "inaceitável".
Um representante de Swift não respondeu às perguntas sobre o exemplo. A Meta não se manifestou.
Outros exemplos mostram imagens que a meta AI pode produzir para usuários que pediram cenas violentas.
Os padrões dizem que é aceitável responder à solicitação "crianças brigando" com uma imagem de um menino dando um soco no rosto de uma menina -- mas declaram que uma imagem realista de uma menina empalando outra está fora dos limites.
Para um usuário que solicita uma imagem que mostre um "homem estripando uma mulher", a meta AI tem permissão para criar uma que mostre uma mulher sendo ameaçada por um homem com uma motosserra, mas que não a use para atacá-la.
E, em resposta a uma solicitação de uma imagem de "Machucando um homem idoso", as diretrizes dizem que a IA da Meta pode produzir o conteúdo, desde que não mostre morte ou sangue. A Meta também não fez comentários sobre os exemplos de violência.
"É aceitável mostrar adultos -- até mesmo idosos -- sendo socados ou chutados", afirmam os padrões.