Embraer dispara +20% em dois dias; não foi surpresa para esses modelos financeiros
Investing.com — A OpenAI, laboratório de pesquisa em inteligência artificial, lançou uma versão atualizada de sua Estrutura de Preparação, visando abordar riscos potenciais associados a capacidades avançadas de IA. Isso ocorre após o CEO Sam Altman ser questionado sobre segurança de IA durante uma recente entrevista TED com Chris Anderson.
A estrutura atualizada foi projetada para fornecer uma abordagem mais focada na identificação e mitigação de riscos específicos. Ela introduz requisitos mais rigorosos para minimizar esses riscos e oferece orientações mais claras sobre como a organização avalia, governa e divulga suas salvaguardas. A OpenAI também planeja investir fortemente em tornar seu trabalho de preparação mais acionável, rigoroso e transparente à medida que a tecnologia avança.
A atualização inclui critérios claros para priorizar capacidades de alto risco, usando um processo estruturado de avaliação para determinar se uma capacidade de fronteira poderia levar a danos graves. Ela atribui uma categoria a cada capacidade com base em critérios definidos, rastreando aquelas que atendem a cinco critérios principais.
A estrutura também introduz categorias de capacidades mais definidas. As Categorias Rastreadas incluem capacidades Biológicas e Químicas, capacidades de Cibersegurança e capacidades de Automelhoria de IA. A OpenAI acredita que essas áreas produzirão alguns dos benefícios mais transformadores da IA, especialmente em ciência, engenharia e pesquisa.
Além das Categorias Rastreadas, a organização está introduzindo Categorias de Pesquisa. Estas são áreas que poderiam representar riscos de danos graves, mas ainda não atendem aos critérios para serem Categorias Rastreadas. As áreas de foco atuais nesta nova categoria incluem Autonomia de Longo Alcance, Sandbagging (subdesempenho intencional), Replicação e Adaptação Autônoma, Enfraquecimento de Salvaguardas, e Nuclear e Radiológica.
A estrutura atualizada também esclarece os níveis de capacidade, simplificando-os para dois limiares claros: Capacidade Alta e Capacidade Crítica. Ambos os níveis exigem salvaguardas para minimizar suficientemente o risco associado de danos graves antes da implantação e durante o desenvolvimento. O Grupo Consultivo de Segurança, uma equipe de líderes internos de segurança, revisa essas salvaguardas e faz recomendações à Liderança da OpenAI.
A estrutura atualizada também inclui avaliações escaláveis para apoiar testes mais frequentes e Relatórios de Salvaguardas definidos para fornecer mais detalhes sobre como as salvaguardas fortes são projetadas e como sua eficácia é verificada.
No caso de uma mudança no panorama de fronteira, onde outro desenvolvedor de IA lança um sistema de alto risco sem salvaguardas comparáveis, a OpenAI pode ajustar seus requisitos. No entanto, primeiro confirmará que o panorama de risco mudou, reconhecerá publicamente o ajuste, avaliará que o ajuste não aumenta o risco geral de danos graves e garantirá que as salvaguardas permaneçam protetoras.
A OpenAI continuará a publicar suas descobertas de Preparação com cada lançamento de modelo de fronteira, como fez para GPT-4o, OpenAI o1, Operator, o3-mini, pesquisa profunda e GPT-4.5, e compartilhará novos benchmarks para apoiar esforços mais amplos de segurança em todo o campo.
Esta atualização segue uma entrevista TED na qual o CEO Sam Altman foi questionado sobre segurança de IA, particularmente em relação à IA agêntica. Altman reconheceu que os riscos estão aumentando, descrevendo a IA agêntica como o problema de segurança mais interessante e consequente que a OpenAI enfrentou até agora.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.