A Safe Superintelligence (SSI), nova startup de IA cofundada por Ilya Sutskever, garantiu uma rodada de financiamento significativa de US$ 1 bilhão. Este impulso financeiro visa desenvolver sistemas de inteligência artificial que superem a inteligência humana, garantindo ao mesmo tempo a segurança. Sutskever, uma figura notável no campo da IA e ex-cientista-chefe da OpenAI, embarcou neste empreendimento com Daniel Gross, ex-líder de IA na Apple (NASDAQ:AAPL), e Daniel Levy, ex-pesquisador da OpenAI.A SSI é atualmente uma operação pequena com 10 funcionários, mas tem planos ambiciosos de expandir sua equipe e capacidades de computação. A empresa operará em Palo Alto, Califórnia, e Tel Aviv, Israel, concentrando-se em reunir um grupo altamente confiável de pesquisadores e engenheiros.Embora a startup não tenha divulgado sua avaliação, fontes indicam um valor em torno de US$ 5 bilhões. Esta rodada de financiamento é indicativa da confiança dos investidores no potencial da pesquisa em IA, apesar de um declínio geral no interesse por tais empreendimentos que frequentemente demoram a se tornar lucrativos.O investimento foi apoiado por grandes empresas de capital de risco, incluindo Andreessen Horowitz, Sequoia (BVMF:SEQL3) Capital, DST Global e SV Angel. A NFDG, uma parceria de investimento administrada por Nat Friedman e o CEO da SSI, Daniel Gross, também contribuiu para o financiamento.Daniel Gross destacou a importância de ter investidores alinhados com a missão da SSI, que é focar em P&D para superinteligência segura antes da introdução no mercado. A segurança da IA é uma questão cada vez mais crítica, com preocupações sobre a IA agir contra os interesses humanos, e a SSI visa abordar esses desafios.A indústria está atualmente dividida sobre um projeto de lei da Califórnia que propõe regulamentações de segurança para empresas de IA, com empresas como OpenAI e Google (NASDAQ:GOOGL) se opondo, enquanto outras como Anthropic e xAI de Elon Musk o apoiam.Sutskever, que tem sido influente no espaço da IA, vê a SSI como uma nova oportunidade para seguir uma direção diferente no desenvolvimento de IA. Sua saída da OpenAI seguiu uma decisão controversa do conselho de demitir o CEO Sam Altman, uma decisão que Sutskever inicialmente apoiou, mas depois reverteu, levando a um papel diminuído e eventual saída da OpenAI em maio.A SSI está pronta para se diferenciar da estrutura corporativa única da OpenAI adotando um modelo tradicional com fins lucrativos. A empresa está colocando uma forte ênfase na adequação cultural durante seu processo de contratação, buscando indivíduos com bom caráter e capacidades excepcionais, em vez de focar apenas em credenciais.Quanto à infraestrutura, a SSI planeja colaborar com provedores de nuvem e empresas de chips, embora ainda não tenha finalizado essas parcerias. Sutskever pretende adotar uma abordagem diferente para escalar a IA do que fez na OpenAI, visando fazer avanços únicos no campo.A Reuters contribuiu para este artigo.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.