Por Martin Coulter e Paul Sandle
BLETCHLEY PARK, INGLATERRA (Reuters) - Desenvolvedores líderes de inteligência artificial concordaram em trabalhar com governos para testarem novos modelos antes de eles serem lançados, como forma de ajudar a administrar os riscos da tecnologia em rápido desenvolvimento, um marco na cúpula de IA do Reino Unido.
Alguns líderes de empresas de tecnologia e políticos alertam que a IA representa altos riscos se não for controlada, da erosão da privacidade do consumidor e perigo aos humanos à catástrofe global, e essas preocupações motivaram uma corrida de governos e instituições para a concepção de salvaguardas e regulamentações.
Na abertura da Cúpula de Segurança de IA no Bletchley Park, casa dos decifradores britânicos da Segunda Guerra Mundial, líderes políticos de Estados Unidos, União Europeia e China concordaram na quarta-feira em compartilharem uma abordagem comum para identificação de riscos e maneiras de mitigá-los.
Na quinta-feira, o primeiro-ministro britânico, Rishi Sunak, disse que EUA, UE e outros países “com a mesma mentalidade” também concordaram com um seleto grupo de empresas que trabalham na vanguarda da inteligência artificial sobre o princípio de que os modelos devem ser rigorosamente avaliados antes e depois de serem desenvolvidos.
Yoshua Bengio, chamado de Padrinho da IA, ajudará a entregar um relatório sobre o “Estado da Ciência” para construir uma compreensão compartilhada das capacidades e riscos no horizonte.
“Até agora, as únicas pessoas testando a segurança dos novos modelos de IA são as mesmas empresas que as estão desenvolvendo”, disse Sunak, em um comunicado. “Não deveríamos depender delas para fazer nossa própria lição de casa, como muitas delas concordam.”
A cúpula reuniu cerca de 100 políticos, acadêmicos e executivos de tecnologia para a criação de um caminho para uma tecnologia que pode transformar a maneira como empresas, sociedades e economias operam, com alguns esperando formar um órgão independente que faça a supervisão em escala global.
Pela primeira vez em uma tentativa do Ocidente de administrar o desenvolvimento seguro da inteligência artificial, um vice-ministro chinês se juntou a outros líderes políticos na cúpula na última quarta-feira, focada em modelos de uso geral de alta capacidade, chamados “frontier AI”.
Wu Zhaohui, vice-ministro de Ciência e Tecnologia, assinou a “Declaração de Bletchley” na quarta-feira, mas a China não estava presente nesta quinta e não colocou seu nome no acordo dos testes.
Sunak foi criticado por alguns parlamentares do seu próprio partido por ter convidado a China, após muitos governos ocidentais reduzirem sua cooperação tecnológica com Pequim, mas Sunak afirmou que qualquer esforço pela segurança da IA precisa incluir seus principais personagens.
Ele também disse que mostrava o papel que o Reino Unido pode ter na união dos três grandes blocos econômicos de Estados Unidos, China e União Europeia.
“Fala sobre nossa habilidade de reunir as pessoas”, disse Sunak, em uma entrevista coletiva. “Não foi uma decisão fácil convidar a China, e muitas pessoas me criticaram, mas eu acho que foi a decisão certa no longo prazo”.
Representantes da OpenAI, Anthropic, Google (NASDAQ:GOOGL) DeepMind, Microsoft (NASDAQ:MSFT), Meta e xAI participaram de sessões durante a cúpula na quinta-feira, ao lado de líderes que incluíram a presidente da Comissão Europeia, Ursula von der Leyen, a vice-presidente dos EUA, Kamala Harris, e o secretário-geral da ONU, António Guterres.
Von der Leyen disse que algoritmos complexos nunca podem ser exaustivamente testados, então “acima de tudo, precisamos garantir que os desenvolvedores ajam rapidamente quando problemas aparecem, tanto antes quanto depois dos seus modelos serem colocados no mercado”.
As últimas palavras sobre inteligência artificial dos dois dias será uma conversa entre Sunak e o bilionário Elon Musk, marcada para ser transmitida no fim da quinta-feira na rede social X.
Segundo duas fontes na cúpula, Musk disse aos participantes na quarta-feira que os governos não deveriam correr para lançarem legislações sobre inteligência artificial.
Em vez disso, sugeriu que as empresas usando a tecnologia estavam mais bem colocadas para descobrir os problemas e que elas podem compartilhar suas descobertas com os parlamentares responsáveis por escrever as novas leis.
“Eu não sei necessariamente quais são as regras justas, mas você tem que começar com uma visão de dentro antes de uma supervisão” disse Musk a repórteres na quarta-feira.