Bitcoin reage a cenário político e econômico leve, mas resistência limita avanço
A Investing.com -- A voz e a aparência do ator Bryan Cranston foram geradas sem permissão em algumas saídas do Sora 2 da OpenAI durante seu lançamento exclusivo para convidados há duas semanas, provocando uma resposta colaborativa das partes interessadas da indústria do entretenimento.
A OpenAI fortaleceu as proteções contra a replicação de voz e aparência quando os indivíduos não optam por participar, após o incidente. A empresa expressou arrependimento por essas gerações não intencionais, apesar de ter uma política existente que exige consentimento para o uso de voz e aparência.
Cranston, que trouxe o problema à atenção do SAG-AFTRA, disse: "Fiquei profundamente preocupado não apenas comigo mesmo, mas com todos os artistas cujo trabalho e identidade podem ser mal utilizados dessa maneira. Sou grato à OpenAI por sua política e por melhorar suas proteções, e espero que eles e todas as empresas envolvidas neste trabalho respeitem nosso direito pessoal e profissional de gerenciar a replicação de nossa voz e aparência."
A colaboração inclui SAG-AFTRA, OpenAI, Bryan Cranston, United Talent Agency, Creative Artists Agency e a Association of Talent Agents, que divulgaram conjuntamente uma declaração sobre a resolução.
A política de consentimento da OpenAI dá a todos os artistas, performers e indivíduos o direito de determinar como e se podem ser simulados. A empresa também se comprometeu a responder rapidamente a quaisquer reclamações que receba.
O presidente do SAG-AFTRA, Sean Astin, elogiou a resolução, dizendo: "Bryan fez a coisa certa ao se comunicar com seu sindicato e seus representantes profissionais para resolver o assunto. Este caso específico tem uma resolução positiva. Estou feliz que a OpenAI se comprometeu a usar um protocolo de consentimento, onde todos os artistas têm a capacidade de escolher se desejam participar da exploração de sua voz e aparência usando IA."
As partes envolvidas expressaram apoio ao NO FAKES Act, legislação federal pendente projetada para proteger artistas contra replicação digital não autorizada. Eles endossam seu objetivo de estabelecer um padrão nacional garantindo que as vozes e aparências dos artistas não possam ser usadas sem permissão.
Sam Altman, CEO da OpenAI, declarou: "A OpenAI está profundamente comprometida em proteger os artistas da apropriação indevida de sua voz e aparência. Fomos um dos primeiros apoiadores do NO FAKES Act quando foi introduzido no ano passado, e sempre defenderemos os direitos dos artistas.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.