Bitcoin em queda após liquidação bilionária no mercado
A Amazon Web Services (NASDAQ:AMZN) introduziu na quarta-feira um novo hardware de resfriamento desenvolvido internamente, projetado especificamente para as mais recentes unidades de processamento gráfico da Nvidia (NASDAQ:NVDA) que alimentam sistemas de inteligência artificial generativa.
A AWS desenvolveu sua solução de infraestrutura personalizada — o Trocador de Calor Em Linha (IRHX) — em vez de adotar soluções de resfriamento líquido padrão amplamente utilizadas no setor. Essa abordagem permite à AWS acomodar os racks de GPU de alta densidade da Nvidia sem grandes reformas nos data centers.
As GPUs Blackwell da Nvidia, criadas para treinamento e inferência de IA em larga escala, consomem energia substancial e produzem calor significativo, exigindo sistemas de resfriamento avançados. Os métodos tradicionais de resfriamento a ar que funcionavam para gerações anteriores de chips não conseguem lidar com as demandas térmicas de racks como o GB200 NVL72 da Nvidia, que agrupa 72 GPUs em um único rack.
"Eles ocupariam muito espaço no data center ou aumentariam substancialmente o uso de água", disse o vice-presidente de Serviços de Computação e Aprendizado de Máquina da AWS, Dave Brown, em um vídeo de apresentação. "E embora algumas dessas soluções pudessem funcionar para volumes menores em outros provedores, simplesmente não haveria capacidade de resfriamento líquido suficiente para suportar nossa escala."
O sistema de resfriamento IRHX combina componentes líquidos e baseados em ar para um gerenciamento eficiente do calor. Desenvolvido em parceria com a Nvidia, ele circula refrigerante para os chips GPU através de placas frias e remove o calor por meio de conjuntos de ventiladores e bobinas, mantendo o layout mecânico resfriado a ar dos racks padrão da AWS.
Esta inovação em resfriamento coincide com o lançamento pela AWS de novas instâncias de computação: EC2 P6e e P6e Ultra. Essas instâncias oferecem aos clientes acesso ao HGX B200 da Nvidia e ao stack GB200 NVL72, respectivamente, sendo este último uma das configurações de servidor mais poderosas da AWS até o momento, projetada para desenvolvimento e implantação avançados de modelos.
A AWS também destacou sua plataforma de infraestrutura Nitro, que fornece rede e monitoramento de sistema para essas novas instâncias. O sistema Nitro permite atualizações de firmware sem interrupção do serviço e suporta até 28,8 terabytes por segundo de largura de banda de rede por servidor Ultra, essencial para cargas de trabalho de IA que escalam em dezenas de milhares de GPUs.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.
