Ações da Prio caem 5% depois de agência interditar produção
Investing.com -- Os chips mais recentes da Nvidia (NASDAQ:NVDA) demonstraram progresso no treinamento de sistemas de inteligência artificial (IA) de grande porte, segundo dados divulgados na quarta-feira. Os dados indicam uma redução significativa no número de chips necessários para treinar modelos de linguagem extensos.
Os dados foram divulgados pela MLCommons, uma organização sem fins lucrativos que compartilha resultados de desempenho de referência para sistemas de IA. A organização forneceu novas informações sobre chips da Nvidia e Advanced Micro Devices, entre outros, utilizados para treinamento de IA. Este processo envolve alimentar sistemas de IA com grandes volumes de dados para aprendizado. Embora grande parte do foco do mercado de ações tenha mudado para a inferência de IA, onde os sistemas de IA respondem às consultas dos usuários, o número de chips necessários para o treinamento do sistema continua sendo um fator competitivo fundamental. Por exemplo, a DeepSeek da China afirma que pode criar um chatbot competitivo com muito menos chips que seus concorrentes americanos.
Os resultados recentes são os primeiros que a MLCommons compartilhou sobre o desempenho de chips no treinamento de sistemas de IA. Os chips foram testados no treinamento de sistemas de IA como o Llama 3.1 405B, um modelo de IA de código aberto desenvolvido pela Meta Platforms. Este modelo possui uma quantidade substancial do que são chamados "parâmetros", dando uma ideia de como os chips podem se comportar em algumas das tarefas de treinamento mais complexas do mundo, que poderiam envolver trilhões de parâmetros.
Apenas a Nvidia e seus parceiros enviaram dados sobre o treinamento deste grande modelo. Os dados revelaram que os novos chips Blackwell da Nvidia são mais de duas vezes mais rápidos que a geração anterior de chips Hopper, considerando a base por chip.
De acordo com os resultados mais rápidos para os novos chips da Nvidia, 2.496 chips Blackwell completaram o teste de treinamento em 27 minutos. Este desempenho foi mais rápido do que o de mais de três vezes o número de chips da geração anterior da Nvidia, conforme os dados.
Em uma coletiva de imprensa, Chetan Kapoor, diretor de produtos da CoreWeave, que trabalhou com a Nvidia em alguns dos resultados, afirmou que houve uma mudança na indústria de IA. A tendência é montar grupos menores de chips em subsistemas para tarefas separadas de treinamento de IA, em vez de criar grupos homogêneos de 100.000 chips ou mais. Kapoor observou que essa abordagem permite a aceleração contínua ou a redução no tempo necessário para treinar modelos com tamanhos de múltiplos trilhões de parâmetros.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.