A primeira iteração de memória de alta largura de banda (HBM) foi limitada a uma velocidade máxima de 128 GB/s por pilha. Mas há uma advertência importante: devido a limitações físicas, as placas gráficas que usam o HBM1 são limitadas a 4 GB de memória.
Com o tempo, os fabricantes de HBM, como SKHynix e Samsung, melhoraram as deficiências da HBM. A primeira atualização, HBM2, dobrou as velocidades potenciais para 256 GB/s por pilha, elevando a capacidade máxima para 8 GB. Em 2018, o HBM2 foi ligeiramente atualizado (HBM2E), o limite de capacidade foi aumentado ainda mais para 24 GB e a velocidade também foi aumentada novamente, atingindo eventualmente um pico de 460 GB/s por chip.
Após o lançamento do HBM3, a velocidade dobrou novamente, atingindo velocidade máxima de 819GB/s por pilha. Ainda mais impressionante é que a capacidade quase triplicou, de 24 GB para 64 GB. Assim como o HBM2E, o HBM3 está recebendo outra atualização de meio de ciclo, o HBM3E, que aumenta as velocidades teóricas para 1,2 TB/s por pilha.
Com o tempo, a HBM em placas gráficas de consumo foi gradualmente substituída por memória GDDR com preços mais competitivos. A memória de alta largura de banda está se tornando padrão em data centers, e os fabricantes de placas gráficas no local de trabalho estão optando por usar interfaces mais rápidas.
Em meio a várias atualizações e melhorias, o HBM mantém a mesma interface de 1024 bits (por pilha) em todas as iterações. De acordo com um relatório da Coreia do Sul, isso pode finalmente mudar quando o HBM4 chegar ao mercado. Se os relatórios forem verdadeiros, a interface de memória dobrará de 1.024 bits para 2.048 bits.
Em teoria, pular para uma interface de 2.048 bits poderia dobrar novamente as velocidades de transferência. Infelizmente, os fabricantes de memória podem não conseguir manter as mesmas taxas de transferência com o HBM4 em comparação com o HBM3E. No entanto, interfaces com maior memória permitem que os fabricantes usem menos empilhamento em placas gráficas.
Por exemplo, a principal placa gráfica AI H100 da NVIDIA atualmente usa seis matrizes empilhadas em boas condições de 1024 bits, permitindo uma interface de 6144 bits. Se a interface de memória fosse duplicada para 2.048 bits, a NVIDIA poderia teoricamente reduzir pela metade o número de chips para três e obter o mesmo desempenho. É claro que não está claro qual abordagem os fabricantes adotarão, já que o HBM4 quase certamente não entrará em produção por vários anos.
Atualmente, tanto a SK Hynix quanto a Samsung acreditam que quando começarem a produzir o HBM4, serão capazes de atingir “rendimento de 100%”. Só o tempo dirá se estes relatórios se mantêm, por isso trate esta notícia com cautela.
acesso:
Shopping Jingdong