Por Muvija M e Martin Coulter
LONDRES (Reuters) - O presidente da Microsoft, Brad Smith, afirmou que não há chance de criação de inteligência artificial superinteligente nos próximos 12 meses e alertou que a tecnologia pode estar a décadas de distância.
O cofundador da OpenAI, Sam Altman, no início deste mês, foi destituído do cargo de CEO pelo conselho de administração da empresa, mas foi rapidamente reintegrado após um fim de semana de protestos de funcionários e acionistas.
A Reuters informou na semana passada com exclusividade que a demissão ocorreu logo depois que os pesquisadores contataram o conselho, alertando sobre uma descoberta perigosa que eles temiam que pudesse ter consequências indesejadas.
O projeto interno denominado Q* (pronuncia-se Q-Star) pode ser um avanço na busca da startup pelo que é conhecido como inteligência artificial geral (AGI), disse uma fonte à Reuters. A OpenAI define AGI como sistemas autônomos que superam os humanos nas tarefas economicamente mais valiosas.
No entanto, Smith, falando a repórteres no Reino Unido nesta quinta-feira, negou as alegações de um avanço perigoso.
"Não há absolutamente nenhuma probabilidade de que vejamos esta chamada AGI, onde os computadores são mais poderosos que as pessoas, nos próximos 12 meses. Vai levar anos, se não muitas décadas, mas ainda acho que a hora de focar na segurança é agora", disse ele.
Fontes disseram à Reuters que o alerta ao conselho da OpenAI foi um fator entre uma lista mais longa de queixas que levaram à demissão de Altman, bem como preocupações sobre a comercialização de avanços antes de avaliar seus riscos.
Questionado se tal descoberta contribuiu para a destituição de Altman, Smith disse: "não creio que seja esse o caso. Acho que obviamente houve uma divergência entre o conselho e outros, mas não se tratava fundamentalmente de uma preocupação como essa".
"O que realmente precisamos são freios de segurança. Assim como você tem um freio de segurança em um elevador, um disjuntor para eletricidade, um freio de emergência para um ônibus -- deveria haver freios de segurança em sistemas de IA que controlam infraestruturas críticas, para que permaneçam sempre sob controle humano", acrescentou o executivo.
(Reportagem de Martin Coulter)