NEO Semiconductor发布全球首款X-HBM:带宽提升16倍,或重塑AI芯片内存架构

作者:电子创新网编辑部

近日,NEO Semiconductor重磅推出全球首款用于AI芯片的超高带宽内存(X-HBM)架构,基于其自研的3D X-DRAM技术,突破传统HBM技术在带宽与容量上的瓶颈。这一架构的发布,或将引领内存产业迈入AI时代的“超级内存”时代。

X-HBM:远超HBM5与HBM8的前瞻性架构

当前主流的HBM(High Bandwidth Memory)技术正面临演进瓶颈。根据NEO公布的对比数据:

  • 即便是预计2030年左右上市的HBM5,仍只支持4K位数据总线、40Gbit容量;

  • 韩国科学技术院(KAIST)预测,约2040年面市的HBM8,数据总线也仅为16K位,容量为80Gbit。

相比之下,NEO的X-HBM大幅跃迁至:

  • 32K位数据总线;

  • 512Gbit容量/每芯片;

  • 带宽为现有内存的16倍;

  • 密度为现有内存的10倍。

    X-HBM.JPG

这意味着AI芯片设计人员将能够绕开传统HBM技术长达十年的技术演进周期,提前享受更高的性能与更强的可扩展性。

3D X-DRAM:X-HBM的技术核心

X-HBM背后的核心技术是NEO Semiconductor自研的3D X-DRAM架构。这一新型架构通过垂直堆叠与创新的数据通道设计,显著提升了芯片的带宽密度比,为AI和高性能计算(HPC)带来了颠覆式性能提升。

传统DRAM结构往往受到二维扩展的限制,而3D X-DRAM通过优化存储单元排列与数据传输路径,解决了横向扩展导致的面积与功耗问题。

生成式AI时代的“超级内存”

生成式AI模型对存储带宽与容量提出了前所未有的挑战。GPT-5、Gemini、Claude等下一代大模型的训练参数已突破数千亿甚至上万亿,推动底层存储架构革新成为迫切需求。

NEO Semiconductor表示,X-HBM专为这一趋势而设计,不仅能满足未来AI训练与推理过程中对内存高带宽、高密度、低延迟的核心诉求,更可能成为AI芯片架构演进中的“关键变量”。

产业前瞻:内存不再只是配角

随着算力需求爆发式增长,存储带宽已成为AI系统性能提升的关键短板。在GPU、NPU等计算架构快速进化的同时,X-HBM的问世意味着内存技术正从配角走向舞台中央。

NEO Semiconductor的X-HBM架构提供了一个重要信号:未来的AI芯片,不仅比拼算力核心,更比拼内存与计算的协同效率。

*注:本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利