Ibovespa tem alta modesta com GPA e Eneva em destaque; BB recua
Investing.com — A OpenAI reduziu o tempo e os recursos dedicados a testar a segurança de seus modelos de inteligência artificial, gerando preocupações sobre as proteções adequadas para sua tecnologia, informou o Financial Times nesta sexta-feira.
Funcionários e grupos que avaliam riscos e desempenho dos modelos da OpenAI receberam recentemente apenas alguns dias para realizar avaliações, disse o relatório do FT, citando oito pessoas familiarizadas com o assunto.
Os processos de teste da startup tornaram-se menos rigorosos, com menos recursos e menos tempo dedicados à mitigação de riscos, segundo o relatório do FT.
A notícia surge enquanto a OpenAI corre para lançar modelos de IA atualizados e manter sua vantagem competitiva, especialmente em meio à crescente concorrência de novos participantes chineses como a DeepSeek.
A OpenAI está se preparando para lançar seu novo modelo o3 na próxima semana, embora nenhuma data de lançamento tenha sido determinada. Mas essa pressa para lançar modelos atualizados está potencialmente comprometendo as verificações de segurança da empresa.
Ainda assim, os relatos de tempos reduzidos de testes de segurança também ocorrem em meio a uma mudança na IA em direção à inferência - ou seja, o processamento e geração de novos dados - em vez do treinamento, que usa dados existentes para melhorar as capacidades de um modelo de IA.
A OpenAI anunciou no início de abril que havia arrecadado US$ 40 bilhões em uma rodada de financiamento liderada pelo grupo japonês SoftBank Group Corp. (TYO:9984), que avaliou a empresa em US$ 300 bilhões.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.