Calendário Econômico: Guerra tarifária, Super Quarta, PIB dos EUA e payroll
Investing.com — A OpenAI, organização líder em pesquisa de inteligência artificial, anunciou uma série de melhorias em suas iniciativas de segurança, incluindo a expansão do seu Programa de Subsídios para Cibersegurança e o aumento das recompensas em seu Programa de Recompensas por Bugs de Segurança. Isso faz parte do compromisso contínuo da OpenAI com a excelência em segurança enquanto avança no desenvolvimento da inteligência artificial geral (AGI).
O Programa de Subsídios para Cibersegurança, lançado há dois anos, analisou mais de mil inscrições e financiou 28 iniciativas de pesquisa. O programa visa avançar nos campos de IA e cibersegurança, e forneceu insights valiosos em áreas como geração segura de código, injeção de prompt e defesas autônomas de cibersegurança. A OpenAI agora está aceitando propostas para uma gama mais ampla de projetos, com foco em áreas como correção de software, privacidade de modelos, detecção e resposta, integração de segurança e segurança de agentes. A organização também está oferecendo microsubsídios, na forma de créditos de API, para propostas de alta qualidade.
Além do programa de subsídios, a OpenAI está se envolvendo com pesquisadores e profissionais da comunidade de cibersegurança para compartilhar descobertas e aproveitar os mais recentes conhecimentos. A organização faz parcerias com especialistas em laboratórios acadêmicos, governamentais e comerciais para treinar seus modelos e avaliar lacunas de habilidades em diversos domínios de cibersegurança. Essa colaboração tem levado a resultados impressionantes em áreas como segurança de código.
O Programa de Recompensas por Bugs de Segurança da OpenAI recompensa pesquisadores de segurança por identificar vulnerabilidades e ameaças na infraestrutura e produtos da organização. A OpenAI aumentou significativamente o pagamento máximo de recompensa de $20.000 para $100.000, refletindo o compromisso da organização em recompensar pesquisas de segurança significativas e de alto impacto. Para celebrar a expansão do programa de recompensas, a OpenAI também está lançando promoções por tempo limitado, oferecendo bônus adicionais para relatórios qualificados em categorias específicas.
À medida que a OpenAI se aproxima da AGI, a organização está se adaptando proativamente às ameaças de segurança em evolução, construindo medidas de segurança abrangentes diretamente em sua infraestrutura e modelos. Isso inclui o uso de sua própria tecnologia de IA para escalar suas defesas cibernéticas, desenvolver métodos avançados para detectar ameaças cibernéticas e responder rapidamente, além de parcerias com renomados especialistas em pesquisa de segurança como a SpecterOps para testar rigorosamente suas defesas de segurança.
A OpenAI também está investindo na compreensão e mitigação dos desafios únicos de segurança e resiliência que surgem com o desenvolvimento de agentes de IA avançados. Isso inclui o desenvolvimento de métodos robustos de alinhamento para defender contra ataques de injeção de prompt e a implementação de controles de monitoramento de agentes para detectar e mitigar rapidamente comportamentos indesejados ou prejudiciais.
A segurança é uma pedra angular dos projetos de IA de próxima geração da OpenAI, como o Stargate. A organização trabalha com seus parceiros para adotar práticas de segurança líderes do setor, incluindo arquiteturas de confiança zero e soluções de segurança baseadas em hardware. A OpenAI também está expandindo seu programa de segurança e está buscando engenheiros apaixonados em várias áreas.
A OpenAI atende mais de 400 milhões de usuários ativos semanais em empresas, corporações e governos em todo o mundo. À medida que os modelos e produtos da OpenAI avançam, a organização permanece totalmente dedicada a uma abordagem proativa e transparente para a segurança, impulsionada por testes rigorosos, pesquisa colaborativa e o objetivo de garantir o desenvolvimento seguro, responsável e benéfico da AGI.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.