Por Jyoti Narayan e Krystal Hu e Martin Coulter e Supantha Mukherjee
(Reuters) - O bilionário Elon Musk, um grupo de especialistas em inteligência artificial e executivos do setor estão pedindo uma pausa de seis meses no desenvolvimento de sistemas mais poderosos que o recém-lançado GPT-4 da OpenAI. O pedido consta de uma carta aberta que cita potenciais riscos para a sociedade e a humanidade.
A carta, emitida pela organização sem fins lucrativos Future of Life Institute e assinada por mais de mil pessoas, incluindo Musk, pede uma pausa no desenvolvimento avançado de inteligência artificial até que protocolos de segurança compartilhados para tais projetos sejam desenvolvidos, implementados e auditados por especialistas independentes.
“Poderosos sistemas de inteligência artificial devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, afirma o grupo na carta.
A OpenAI, que tem a Microsoft (NASDAQ:MSFT) um de seus principais apoiadores, não respondeu imediatamente a um pedido de comentário.
A carta detalha os riscos potenciais para a sociedade e a civilização na forma de problemas econômicos e políticos e convoca os desenvolvedores a trabalharem com formuladores de políticas e autoridades reguladoras sobre governança.
Os co-signatários incluem Emad Mostaque, presidente-executivo da Stability AI; pesquisadores da DeepMind, de propriedade da Alphabet (NASDAQ:GOOGL); e os pesos pesados do setor, Yoshua Bengio, muitas vezes referido como um dos "padrinhos da inteligência artificial", e Stuart Russell, um pioneiro da pesquisa no campo.
De acordo com dados da União Europeia, o Future of Life é financiado principalmente pela Fundação Musk, bem como pelo grupo pelo grupo britânico Founders Pledge e pela Silicon Valley Community Foundation.
Transparência
Sam Altman, presidente-executivo da OpenAI, não assinou a carta, disse um porta-voz da Future of Life à Reuters.
"A carta não é perfeita, mas o espírito está certo: precisamos desacelerar até entendermos melhor as ramificações", disse Gary Marcus, professor da Universidade de Nova York e um dos signatários da carta. “As grandes empresas estão se tornando cada vez mais secretas sobre o que estão fazendo, o que torna difícil para a sociedade se defender contra quaisquer danos que possam se materializar.”
Críticos acusaram os signatários da carta de promover o "o frenesi da inteligência artificial", argumentando que as afirmações sobre o atual potencial da tecnologia foram muito exageradas.
"Esse tipo de declaração visa aumentar o frenesi. Serve para deixar as pessoas preocupadas", Johanna Björklund, pesquisadora e professora associada da Universidade de Umeå, na Suécia. "Não acho que haja necessidade de puxar o freio de mão."
Em vez de interromper a pesquisa, disse ela, os pesquisadores devem ser submetidos a maiores requisitos de transparência. "Se você faz pesquisa de inteligência artificial, deve ser muito transparente sobre como faz isso", disse Björklund.