Por Jeffrey Dastin e Anna Tong
(Reuters) - A OpenAI, criadora do ChatGPT, está testando como obter informações amplas sobre decisões que afetam seu programa de inteligência artificial, disse seu presidente Greg Brockman nesta segunda-feira.
No AI Forward, um evento em São Francisco organizado pelo Goldman Sachs (NYSE:GS) e SV Angel, Brockman discutiu os contornos gerais de como a fabricante do popular chatbot está buscando a regulamentação da IA globalmente.
Um anúncio que ele previu é semelhante ao modelo da Wikipédia, que, segundo ele, exige que pessoas com diversas visões se unam e concordem com os verbetes da enciclopédia.
"Não estamos apenas sentados no Vale do Silício pensando que podemos escrever essas regras para todos", disse ele sobre a política de IA. "Estamos começando a pensar sobre a tomada de decisão democrática."
Outra ideia discutida por Brockman, que a OpenAI explicou em um comunicado nesta segunda-feira, é que os governos de todo o mundo devem se coordenar para garantir que a IA seja desenvolvida com segurança.
Desde o lançamento do ChatGPT, em 30 de novembro, a tecnologia de IA generativa que pode gerar texto com uma incrível autoridade a partir de requisições do usuário tem cativado o público, tornando o programa o aplicativo de crescimento mais rápido de todos os tempos. A IA também se tornou um foco de preocupação devido à sua capacidade de criar imagens deepfake e outras desinformações.
Ao avaliar o caminho a seguir para a IA, Brockman olhou para a Wikipédia e também para outros lugares. Ele e a OpenAI disseram que um órgão como a Agência Internacional de Energia Atômica (IAEA, na sigla em inglês) poderia impor restrições à implantação, verificar a conformidade com os padrões de segurança e rastrear o uso do poder de computação.
(Reportagem de Jeffrey Dastin em São Francisco e Anna Tong em Nova York; reportagem adicional de Belen Carreño em Madri)