Por Foo Yun Chee
BRUXELAS (Reuters) - Um plano da Meta de usar dados pessoais para treinar seus modelos de inteligência artificial (IA) sem buscar consentimento dos donos desses dados foi criticado pelo grupo de ativista NOYB nesta quinta-feira, que pediu para as autoridades da Europa interromperem esse uso.
O grupo NOYB (none of your business, "Não é da sua conta") pediu aos órgãos nacionais de proteção da privacidade para agirem imediatamente, dizendo que as recentes mudanças na política de privacidade da Meta, que entram em vigor em 26 de junho, permitem o uso de anos de publicações pessoais, imagens privadas ou dados de rastreamento online para treinamento de modelos de IA do controlador do Facebook (NASDAQ:META) e do Instagram.
O NOYB afirmou que enviou 11 reclamações contra a Meta e pediu às autoridades de proteção de dados na Áustria, Bélgica, França, Alemanha, Grécia, Itália, Irlanda, Holanda, Noruega, Polônia e Espanha para agirem com urgência.
A Meta rejeitou as críticas do grupo e fez referência a uma mensagem publicada pela empresa em 22 de maio em que afirma que usa informações online e licenciadas disponíveis publicamente para treinar a IA, bem como informações que as pessoas compartilharam publicamente em seus produtos e serviços.
No entanto, uma mensagem enviada aos usuários do Facebook afirma que a Meta ainda pode processar informações sobre pessoas que não usam seus produtos e serviços nem têm uma conta, caso apareçam em uma imagem ou sejam mencionadas em publicações ou legendas compartilhadas por um usuário.
"Estamos confiantes de que nossa abordagem está em conformidade com as leis de privacidade, e nossa abordagem é consistente com a forma como outras empresas de tecnologia estão desenvolvendo e melhorando suas experiências de IA na Europa (incluindo Google (NASDAQ:GOOGL) e Open AI)", disse um porta-voz.
O grupo NOYB já apresentou várias reclamações contra a Meta e outras grandes empresas de tecnologia por supostas violações do Regulamento Geral de Proteção de Dados (GDPR, na sigla em inglês) da UE, que prevêe multas de até 4% do faturamento global total de uma empresa em caso de violações.
O fundador do NOYB, Max Schrems, disse em um comunicado que o tribunal superior da Europa já havia decidido sobre essa questão em 2021.
"A empresa está tentando usar os mesmos argumentos para o treinamento de uma 'tecnologia de IA' indefinida. Parece que a Meta está, mais uma vez, ignorando descaradamente os julgamentos do TJUE", disse Schrems, acrescentando que a opção de exclusão é extremamente complicada.
"Transferir a responsabilidade para o usuário é completamente absurdo. A lei exige que a Meta obtenha o consentimento de opt-in, não que forneça um formulário de opt-out oculto e enganoso", disse Schrems, acrescentando: "Se a Meta quiser usar seus dados, ela precisa pedir sua permissão. Em vez disso, eles fizeram os usuários implorarem para serem excluídos."