No final de junho (25), a Panmnesia apresentou uma implementação do protocolo CXL que possibilita expandir a memória de GPUs utilizando SSDs ou a memória RAM do sistema
. O processo inovador realiza a interface entre os chips gráficos e dispositivos paralelos de armazenamento e memória com latência baixíssima, algo essencial principalmente em servidores de IA e HPC
.
O Compute Express Link é um protocolo de padrão aberto criado originalmente em 2019 e visa, justamente, estabelecer uma solução compartilhada de memória entre o host e aceleradores dedicados. Contudo, de maneira geral, essa aplicação aumenta bruscamente os tempos de resposta, sendo pouco eficiente em sistemas altamente dependentes em tempos de resposta reduzidos
.
A novidade criada pela startup
coreana é a otimização do protocolo por meio de um controlador que reduz essa latência para a faixa abaixo de 100 nanossegundos. Com isso, serviços de IA menores conseguem aumentar a escalabilidade de suas GPUs sem precisar, obrigatoriamente, trocar a infraestrutura de servidores
, tornando processos de expansão mais acessíveis.
–
Canaltech no Youtube: notícias, análise de produtos, dicas, cobertura de eventos e muito mais! Assine nosso canal no YouTube
, todo dia tem vídeo novo para você!
–
Latência abaixo de 100 nanossegundos
Para reduzir os tempos de acesso, a Panmnesia desenvolveu um chip próprio baseado no design do CXL que utiliza o barramento PCI Express
para estabelecer múltiplas conexões com sistemas externos de armazenamento. Além disso, o decodificador HDM (Memória de Dispositivo Gerenciada pelo Host) realiza a interface entre as conexões, decodificando as informações e gerenciando a alocação na memória externa.
Em benchmarks comparando o protocolo CXL da startup com versões desenvolvidas pela Meta
e Samsung
, o resultado foi um tempo de acesso abaixo de 100 nanossegundos, contra a latência de cerca de 250 ns das soluções da Meta e Samsung.
Leia a matéria no Canaltech
.
Trending no Canaltech: