Por Joyce Lee
SEUL (Reuters) - Dezesseis empresas envolvidas em inteligência artificial, incluindo Google da Alphabet (NASDAQ:GOOGL), Meta, Microsoft (NASDAQ:MSFT) e OpenAI, bem como empresas de China, Coreia do Sul e Emirados Árabes Unidos, comprometeram-se a desenvolver a tecnologia com segurança.
O anúncio, divulgado em uma nota do governo britânico na terça-feira, foi feito quando Coreia do Sul e Reino Unido realizam uma cúpula global de IA em Seul, em um momento em que o ritmo alucinante da inovação em IA faz com que os governos tenham dificuldade para acompanhar o ritmo.
O acordo é um avanço em relação ao número de compromissos assumidos na primeira cúpula global de IA realizada há seis meses, segundo o comunicado.
Zhipu.ai, apoiada pelos gigantes chineses da tecnologia Alibaba (NYSE:BABA), Tencent, Meituan e Xiaomi (HK:1810), e o Instituto de Inovação Tecnológica dos Emirados Árabes Unidos, estão entre as 16 empresas que se comprometeram a publicar estruturas de segurança sobre como medirão os riscos dos modelos de IA.
As empresas, que também incluem Amazon (NASDAQ:AMZN), IBM (NYSE:IBM) e Samsung (KS:005930) Electronics, se comprometeram voluntariamente a não desenvolver ou implantar modelos de IA se os riscos não puderem ser suficientemente mitigados e a garantir a governança e a transparência nas abordagens de segurança da IA, segundo o comunicado.
"É vital obter um acordo internacional sobre as 'linhas vermelhas' em que o desenvolvimento da IA se tornaria inaceitavelmente perigoso para a segurança pública", disse Beth Barnes, fundadora da METR, uma organização sem fins lucrativos para a segurança de modelos de IA.
A cúpula de inteligência artificial em Seul nesta semana tem como objetivo aproveitar um amplo acordo na primeira cúpula realizada no Reino Unido para abordar melhor uma gama mais ampla de riscos.