Dívida pública bruta do Brasil sobe a 77,6% do PIB em julho, acima do esperado
(Reuters) - A OpenAI disse nesta quinta-feira que interrompeu cinco operações secretas de influência que buscavam usar seus modelos de inteligência artificial para "atividades enganosas" na Internet.
A empresa de inteligência artificial disse que os agentes de ameaças usaram seus modelos de IA para gerar comentários curtos, artigos mais longos em vários idiomas, nomes inventados e biografias para contas de mídia social nos últimos três meses.
Essas campanhas, que incluíram agentes de ameaças da Rússia, China, Irã e Israel, também se concentraram em questões como a invasão da Rússia na Ucrânia, o massacre em Gaza, as eleições indianas, a política na Europa e nos Estados Unidos, entre outras.
As operações enganosas foram uma "tentativa de manipular a opinião pública ou influenciar os resultados políticos", disse a OpenAI em comunicado.
O relatório da empresa sediada em São Francisco é o mais recente a despertar preocupações de segurança sobre o uso indevido da tecnologia de IA generativa, que pode produzir texto, imagens e áudio de forma rápida e fácil.
As campanhas enganosas não se beneficiaram de um maior engajamento ou alcance do público devido aos serviços da empresa de IA, disse a OpenAI no comunicado.
A OpenAI disse que essas operações não usaram apenas material gerado por IA, mas incluíram textos escritos manualmente ou memes copiados de toda a Internet.
Separadamente, a Meta, em relatório trimestral de segurança divulgado na quarta-feira, disse que encontrou conteúdo "provavelmente gerado por IA" usado de forma enganosa no Facebook (NASDAQ:META) e no Instagram, incluindo comentários elogiando a forma como Israel lidou com a guerra em Gaza, publicados abaixo de publicações de organizações de notícias globais e parlamentares dos EUA.
(Por Jaspreet Singh)