Em um relatório recente sobre investimentos temáticos, os analistas do Barclays examinaram o aumento esperado no consumo de energia associado ao crescimento das tecnologias de inteligência artificial (IA), com ênfase no papel da NVIDIA (NVDA (NASDAQ:NVDA)).
A equipe do Barclays destacou que os requisitos de energia previstos relacionados aos desenvolvimentos de IA são um fator significativo no desempenho futuro do mercado da NVIDIA.
A análise do Barclays sugere que, até 2030, os data centers podem exigir mais de 9% do uso atual de eletricidade dos Estados Unidos, principalmente devido à energia necessária para as operações de IA. O "consumo de energia de IA incluído nas expectativas de mercado da NVIDIA" é um dos principais contribuintes para essa projeção de alta energia, de acordo com os analistas.
O relatório também reconhece que, embora a eficiência da IA esteja melhorando a cada nova geração de Unidades de Processamento Gráfico (GPUs), o tamanho e a complexidade dos modelos de IA estão se expandindo rapidamente. Por exemplo, a capacidade de grandes modelos de linguagem (LLMs) significativos tem aumentado aproximadamente 3,5 vezes ao ano.
Apesar desses avanços na eficiência, prevê-se que o consumo total de energia cresça devido à ampla gama de aplicações de IA. Cada geração subsequente de GPUs, como as séries Hopper e Blackwell da NVIDIA, consome menos energia. No entanto, os modelos de IA mais extensos e intrincados exigem um poder de processamento considerável.
"Grandes modelos de linguagem (LLMs) precisam de muito poder de processamento para desempenho imediato", afirma o relatório. "O poder de processamento necessário para LLMs também leva ao aumento do uso de energia, pois memória, aceleradores e servidores adicionais são necessários para processar, aprender e fazer previsões usando esses modelos."
"As empresas que planejam usar LLMs para previsões instantâneas devem lidar com esses desafios de energia e processamento", enfatizou o Barclays.
Para se ter uma ideia da energia necessária, o Barclays estima que, para operar, cerca de 8 milhões de GPUs precisariam de cerca de 14,5 gigawatts de energia, o que equivale a cerca de 110 terawatts-hora (TWh) de energia. Essa estimativa é baseada em uma intensidade operacional média de 85%.
Com a expectativa de que aproximadamente 70% dessas GPUs estejam em uso nos EUA até o final de 2027, isso significaria mais de 10 gigawatts e mais de 75 TWh de energia necessários para IA nos Estados Unidos nos próximos três anos.
"A avaliação de mercado atual da NVIDIA sugere que este é apenas o começo da implantação da demanda de energia relacionada à IA", observaram os analistas. Espera-se que o avanço contínuo e a implementação de GPUs pela empresa de semicondutores levem a aumentos substanciais no uso de energia nos data centers.
Além disso, a dependência de redes elétricas para data centers enfatiza a necessidade de gerenciar as maiores demandas de energia. Os data centers operam sem interrupção, o que requer uma fonte de alimentação consistente.
O relatório faz referência a um comentário importante de Sam Altman, CEO da OpenAI, no Fórum Econômico Mundial de Davos: "Certamente precisamos de muito mais energia no mundo do que pensávamos anteriormente... Acredito que ainda subestimamos os requisitos de energia dessa tecnologia."
Este artigo foi criado e traduzido com a ajuda de IA e revisado por um editor. Para obter mais informações, consulte nossos Termos e Condições.