Novos resultados de benchmarks apontam que aceleradores Intel
Gaudi 2 já superam com folga as GPUs da NVIDIA para IA. Em testes de Stable Diffusion, os Gaudi 2 foram 55% mais rápidos que as GPUs NVIDIA H100
e 3 vezes mais rápidos que as A100 em benchmarks sintéticos de IA.
Naturalmente, a comparação considera apenas as soluções NVIDIA que já estão no mercado, lembrando que os aceleradores com arquitetura Blackwell devem ser apresentados na próxima semana durante a GTC 2024. No entanto, a Intel já está trabalhando nos aceleradores Gaudi 3
, supostamente projetados para enfrentar a próxima geração de GPUs NVIDIA para IA.
For Stable Diffusion 3, we measured the training throughput for the 2B Multimodal Diffusion Transformer (MMDiT) architecture model. Gaudi 2 trained images 1.5x faster than the H100-80GB, and 3x faster than A100-80GB GPU’s when scaled up to 32 nodes. (2/3)
–
Siga no Instagram
: acompanhe nossos bastidores, converse com nossa equipe, tire suas dúvidas e saiba em primeira mão as novidades que estão por vir no Canaltech.
–— Stability AI (@StabilityAI) March 11, 2024
Ecossistema de IA mais diverso
Os testes foram divulgados pela empresa Stability AI, especializada em desenvolver modelos LLM
abertos para uma série de aplicações, com parâmetros entre 800 milhões e 8 bilhões. No teste com o Stable Diffusion 3
, modelo de IA Generativa de texto para imagem, os Gaudi 2 entregaram 927 imagens/s, contra 595 dos NVIDIA H100, e apenas 381 das A100.
As placas H100 compõe praticamente toda a infraestrutura de IA atual, principalmente nos serviços baseados no modelo GPT. Apesar de estar chegando apenas agora no mercado de IA, a Intel está otimizando rapidamente o desempenho de seus aceleradores
para garantir logo de saída um portfólio em escala para atender um volume mais amplo de clientes.
Plataforma | Biblioteca | Aceleradores | Agrupamentos por acelerador | Total de Agrupamentos |
Imagens/segundo (100-MA) |
Gaudi2 | FusedSDPA | 16 | 32 | 512 | 1.254 |
Gaudi2 | FusedSDPA | 16 | 16 | 256 | 927 |
H100-80GB | xFormers | 16 | 16 | 256 | 595 |
A100-80GB | xFormers | 16 | 16 | 256 | 381 |
A ideia não é fazer com que as empresas que já utilizam aceleradores de IA, obrigatoriamente, migrem para os Gaudi, mas garantir que o produto seja competitivo. Com isso, é possível assegurar tanto contratos com clientes que ainda não adotaram plataformas de IA, quanto eventuais atualizações e expansões de infraestrutura.
Vale ressaltar ainda que as GPUs são geralmente mais eficientes nos processos de treinamento dos modelos LLM, enquanto as execuções de inferência, propriamente, são processadas em CPUs. Com Intel e AMD
investindo em soluções de processadores para IA, é esperado que a disseminação da Inteligência Artificial ao longo do próximo ano seja mais diversificada, dependendo relativamente menos de aceleradores, reduzindo um pouco a atual liderança isolada da NVIDIA no setor
, e promovendo um ecossistema mais diverso.
Leia a matéria no Canaltech
.
Trending no Canaltech: