(Reuters) - A OpenAI identificou uma série de tentativas em que seus modelos de IA foram usados para gerar conteúdo falso, incluindo artigos longos e comentários de redes sociais, com o objetivo de influenciar eleições, disse o fabricante do ChatGPT em um relatório nesta quarta-feira.
Criminosos cibernéticos estão usando cada vez mais ferramentas de IA, incluindo o ChatGPT, para auxiliar suas atividades maliciosas, como criar e depurar malware e gerar conteúdo falso para sites e plataformas de redes sociais, disse a startup.
Até o momento, neste ano, a empresa neutralizou mais de 20 dessas tentativas, incluindo um conjunto de contas do ChatGPT que foram usadas em agosto para produzir artigos sobre tópicos que incluíam as eleições nos Estados Unidos, segundo a empresa.
Ela também baniu várias contas de Ruanda em julho, que foram usadas para gerar comentários sobre as eleições naquele país para publicação na rede social X.
Nenhuma das atividades que tentaram influenciar as eleições globais atraiu engajamento viral ou audiências sustentáveis, acrescentou a OpenAI.
Há uma preocupação cada vez maior com o uso de ferramentas de IA e sites de redes sociais para gerar e propagar conteúdo falso relacionado a eleições, especialmente no momento em que os EUA se preparam para o pleito presidencial em novembro.
De acordo com o Departamento de Segurança Interna norte-americano, os EUA veem uma ameaça crescente de Rússia, Irã e China tentando influenciar as eleições de 5 de novembro, inclusive usando IA para disseminar informações falsas ou divisivas.
A OpenAI consolidou sua posição como uma das empresas privadas mais valiosas do mundo na semana passada, após uma rodada de financiamento de 6,6 bilhões de dólares.
O ChatGPT tem 250 milhões de usuários ativos semanais desde seu lançamento em novembro de 2022.
(Reportagem de Deborah Sophia em Bengaluru)