Oracle (NYSE:ORCL) CloudWorld -- A Oracle anunciou hoje os primeiros clusters de computação em nuvem em escala zetta acelerados pela plataforma NVIDIA Blackwell. A Oracle Cloud Infrastructure (OCI) está agora aceitando pedidos para o maior supercomputador de IA na nuvem – disponível com até 131.072 GPUs NVIDIA Blackwell.
"Temos uma das ofertas de infraestrutura de IA mais amplas e estamos apoiando clientes que estão executando algumas das cargas de trabalho de IA mais exigentes na nuvem", disse Mahesh Thiagarajan, vice-presidente executivo da Oracle Cloud Infrastructure. "Com a nuvem distribuída da Oracle, os clientes têm a flexibilidade de implantar serviços de nuvem e IA onde escolherem, preservando os mais altos níveis de soberania de dados e IA."
Primeiro cluster de computação em escala Zetta do mundo
A OCI está agora aceitando pedidos para o maior supercomputador de IA na nuvem – disponível com até 131.072 GPUs NVIDIA Blackwell – oferecendo um desempenho de pico sem precedentes de 2,4 zettaFLOPS. A escala máxima do OCI Supercluster oferece mais de três vezes o número de GPUs do supercomputador Frontier e mais de seis vezes o de outros provedores de nuvem. O OCI Supercluster inclui OCI Compute Bare Metal, RoCEv2 de latência ultrabaixa com NICs ConnectX-7 e SuperNICs ConnectX-8 ou redes baseadas em NVIDIA Quantum-2 InfiniBand, e uma escolha de armazenamento HPC.
Os OCI Superclusters podem ser encomendados com OCI Compute alimentado por GPUs NVIDIA H100 ou H200 Tensor Core ou GPUs NVIDIA Blackwell. Os OCI Superclusters com GPUs H100 podem escalar até 16.384 GPUs com até 65 ExaFLOPS de desempenho e 13Pb/s de throughput de rede agregado. Os OCI Superclusters com GPUs H200 escalarão para 65.536 GPUs com até 260 ExaFLOPS de desempenho e 52Pb/s de throughput de rede agregado e estarão disponíveis ainda este ano. Os OCI Superclusters com instâncias bare-metal NVIDIA GB200 NVL72 resfriadas a líquido usarão NVLink e NVLink Switch para permitir que até 72 GPUs Blackwell se comuniquem entre si a uma largura de banda agregada de 129,6 TB/s em um único domínio NVLink. As GPUs NVIDIA Blackwell, disponíveis no primeiro semestre de 2025, com NVLink de quinta geração, NVLink Switch e rede de cluster permitirão comunicação GPU-GPU contínua em um único cluster.
"À medida que empresas, pesquisadores e nações correm para inovar usando IA, o acesso a clusters de computação poderosos e software de IA é crítico", disse Ian Buck, vice-presidente de Computação Hyperscale e de Alto Desempenho da NVIDIA. "A plataforma de computação de IA completa da NVIDIA na nuvem amplamente distribuída da Oracle oferecerá capacidades de computação de IA em escala sem precedentes para avançar os esforços de IA globalmente e ajudar organizações em todos os lugares a acelerar pesquisa, desenvolvimento e implantação."
Clientes como WideLabs e Zoom estão aproveitando a infraestrutura de IA de alto desempenho da OCI com poderosos controles de segurança e soberania.
WideLabs treina um dos maiores LLMs em português na OCI
A WideLabs, uma startup de IA aplicada no Brasil, está treinando um dos maiores LLMs do Brasil, o Amazonia IA, na OCI. Eles desenvolveram o bAIgrapher, uma aplicação que usa seu LLM para gerar conteúdo biográfico baseado em dados coletados de pacientes com doença de Alzheimer para ajudá-los a preservar memórias importantes.
A WideLabs usa a Região Oracle Cloud São Paulo para executar suas cargas de trabalho de IA, garantindo que dados sensíveis permaneçam dentro das fronteiras do país. Isso permite que a WideLabs adira aos requisitos brasileiros de soberania de IA, sendo capaz de controlar onde sua tecnologia de IA é implantada e operada. A WideLabs usa a infraestrutura de IA da OCI com GPUs NVIDIA H100 para treinar seus LLMs, bem como o Oracle Kubernetes Engine para provisionar, gerenciar e operar contêineres acelerados por GPU em um OCI Supercluster consistindo de OCI Compute conectado com a rede de cluster baseada em RMDA da OCI.
"A infraestrutura de IA da OCI nos oferece a maior eficiência para treinar e executar nossos LLMs", disse Nelson Leoni, CEO da WideLabs. "A escala e flexibilidade da OCI são inestimáveis à medida que continuamos a inovar na área de saúde e outros setores-chave."
Zoom usa as capacidades de soberania da OCI para seu assistente de IA generativa
A Zoom, uma plataforma líder de colaboração com IA em primeiro lugar, está usando a OCI para fornecer inferência para o Zoom AI Companion, o assistente pessoal de IA da empresa disponível sem custo adicional. O Zoom AI Companion ajuda os usuários a redigir e-mails e mensagens de chat, resumir reuniões e threads de chat, gerar ideias durante brainstorms com colegas e muito mais. As capacidades de soberania de dados e IA da OCI ajudarão a Zoom a manter os dados dos clientes localmente na região e suportar requisitos de soberania de IA na Arábia Saudita, onde a solução da OCI está sendo inicialmente implementada.
"O Zoom AI Companion está revolucionando a forma como as organizações trabalham, com recursos de IA generativa de ponta disponíveis sem custo adicional com as contas pagas dos clientes", disse Bo Yan, chefe de IA da Zoom. "Ao aproveitar as capacidades de inferência de IA da OCI, a Zoom é capaz de entregar resultados precisos com baixa latência, capacitando os usuários a colaborar perfeitamente, comunicar-se sem esforço e impulsionar a produtividade, eficiência e potencial como nunca antes."
Recursos Adicionais
- Saiba mais sobre o OCI Supercluster
- Leia mais sobre a abordagem de IA soberana da Oracle
- Saiba mais sobre a NVIDIA e Oracle expandindo o acesso à computação acelerada
Este artigo foi gerado e traduzido com o apoio de IA e revisado por um editor. Para mais informações, consulte nossos Termos e Condições.