Nvidia investe mais de US$ 1 trilhão em memórias HBM3e para GPUs H200
A Nvidia
investiu trilhões de dólares para adquirir as memórias HBM3e que vão equipar as novas GPUs para IA H200
. Fontes teriam informado ao veículo coreano Chosun Biz que SK Hynix e Micron
teriam recebido pagamentos antecipados na cifra de centenas de milhões de dólares para formalizar acordos entre US$ 700 bi e US$ 1 trilhão cada, inclusive limitando o acesso às memórias por outras empresas.
A Samsung
também teria firmado acordo para fornecer memórias HBM para produtos Nvidia assim que os componentes da sul-coreana estiverem comercialmente disponíveis. Os detalhes do acerto com a Samsung não foram revelados, mas a projeção é que suas memórias também equipem placas Nvidia para IA, previstas para chegarem ao mercado já em 2024.
New performance updates – H200 achieves nearly 12,000 tokens/sec on Llama2-13B with NVIDIA TensorRT-LLM. H200 is up to 1.9x faster than H100.
Learn more about how you can supercharge #LLM
#inference
with TensorRT-LLM and H200. #SC23
#HPC➡️ https://t.co/lVGBhtNK6t
pic.twitter.com/oC9OOlG7t3–
Podcast Canaltech: de segunda a sexta-feira, você escuta as principais manchetes e comentários sobre os acontecimentos tecnológicos no Brasil e no mundo. Links aqui: https://canaltech.com.br/podcast/
–— NVIDIA AI Developer (@NVIDIAAIDev) November 13, 2023
Antecipando-se à nova crise
Geralmente, comprar componentes envolve projeções de mercado para estimar a demanda aproximada de novos produtos, tornando o movimento da Nvidia bastante atípico. Adquirir lotes tão grandes, já com pagamento antecipado, é uma medida arriscada para placas ainda não lançadas, especialmente considerando que AMD
e Intel
também estão entrando no mercado de IA em 2024 com os aceleradores Gaudi 2/3
e Instinct MI300X/A
.
No entanto, diversos analistas e empresas do setor de semicondutores sugerem que o segmento de memórias NAND irá passar por uma nova crise ao longo deste ano. A última crise de semicondutores de 2018 se estendeu por quase 3 anos, e nada garante que essa próxima irá durar apenas até o final de 2024, como vem sendo estimado.
We announced a collaboration with @AWS
to offer new supercomputing infrastructure, software and services for #generativeAI
. This includes AWS to offer first cloud AI supercomputer with NVIDIA Grace Hopper Superchip and more. https://t.co/4UknRPK1Dg— NVIDIA (@nvidia) November 28, 2023
Sendo assim, a estratégia da Nvidia parece ser muito mais uma forma de se antecipar aos impactos de uma possível escassez de chips NAND
do que refletir acordos já firmados pelas GPUs H200. Com isso, é possível garantir vazão a longo prazo para as novas placas, sem comprometer o custo de produção e preço final para os clientes.
🛒 Compre placas de vídeo Nvidia GeForce RTX pelo melhor preço!
🛒 Compre placas de vídeo Intel Arc pelo melhor preço!
Leia a matéria no Canaltech
.
Trending no Canaltech: