作者:电子创新网编辑部
当 AI 芯片的算力以指数级增长,真正拖慢系统进化的,已经不再是计算单元,而是内存。
过去两年,HBM(高带宽内存)被推上神坛,成为 GPU 与 AI 加速器的“生命线”;但与此同时,它也正在演变为整个 AI 产业链中最昂贵、最稀缺、最难扩展的资源。正是在这样的背景下,英特尔联合软银旗下 SAIMEMORY 推动的 Z-Angle Memory(ZAM),开始浮出水面。
这不是一次“更快内存”的竞赛,而是一场关于 AI 系统底层结构的路线之争。
一、HBM 的成功,正在变成 AI 的结构性负担
HBM 的价值无需怀疑。
它通过 TSV 堆叠、超宽接口,将内存带宽直接拉到 TB/s 级别,使得大模型训练成为可能。
但问题同样清晰:
成本失控:HBM 占 AI 加速卡 BOM 成本 30%~50%
产能极度集中:高度依赖少数 DRAM 厂商
封装受限:CoWoS 等先进封装成为新瓶颈
系统扩展性差:容量受封装尺寸和功耗严格约束
HBM 更像是一种为极限算力服务的“外挂式内存”——它解决了“能不能跑”,却没有解决“能不能规模化”。
这正是 ZAM 试图切入的产业断点。
二、ZAM 想做的不是“下一代 HBM”,而是换一套逻辑
从技术路径看,ZAM 同样采用 Z 轴方向的垂直堆叠,但它的目标并非极限带宽,而是:在容量、带宽、能效与成本之间,重新建立 DRAM 的最优解。
为了更直观理解两者的本质差异,我们必须把 HBM 与 ZAM 放在同一张产业维度表中来看。
三、HBM vs ZAM:关键维度对照表(产业视角)
对比维度 | HBM(High Bandwidth Memory) | ZAM(Z-Angle Memory) |
技术本质 | DRAM + 先进封装的算力外挂 | DRAM 架构级重构 |
堆叠方式 | TSV 垂直堆叠 + 封装内集成 | Z 轴晶圆级垂直键合(NGDB) |
设计目标 | 极限带宽 | 容量 × 带宽 × 能效综合最优 |
单封装容量 | 有限(几十~百 GB) | 目标为 HBM 的 2–3 倍 |
带宽特性 | 极高(TB/s 级) | 高于传统 DRAM,低于极限 HBM |
功耗水平 | 高,且与 GPU 强绑定 | 显著低于 HBM |
成本结构 | 极高,受封装与良率制约 | 目标明显低于 HBM |
制造体系 | 高度依赖先进封装 | 更接近 DRAM 制造逻辑 |
供应链集中度 | 极高 | 潜在更分散、更开放 |
系统绑定程度 | 强绑定 GPU / AI 加速器 | 系统形态更灵活 |
典型应用 | AI 训练、顶级加速器 | 推理 / HPC / 下一代 AI 系统 |
当前阶段 | 已量产,长期供不应求 | 原型阶段,2029 商用 |
一句话结论:HBM 是“为算力服务的内存”,而 ZAM 试图成为“为系统服务的内存”。
四、NGDB:英特尔真正押注的是“制造方法论”
ZAM 的技术根源,来自英特尔主导的 NGDB(Next Generation DRAM Bonding) 项目。这个项目有三个被外界低估的信号:

英特尔 NGDB 研发计划中的一款存储器测试探针卡(图片来源:英特尔)
1️ 国家级工程,而非企业试验
NGDB 隶属于美国 DOE / NNSA 的 先进存储技术(AMT)计划,联合了英特尔、SK 海力士、软银以及美国三大国家实验室。
这意味着 ZAM 并非市场噱头,而是为长期系统演进准备的技术储备。
2️ 核心突破在“键合与堆叠方式”
NGDB 的创新重点不在单颗 DRAM 单元,而在于:
多晶圆垂直键合
新型 via-in-one 架构
面向量产的一致性控制
这正是 HBM 成本和良率的核心痛点。
3️ 英特尔试图重夺“内存架构定义权”
在传统 DRAM 市场失守后,英特尔选择绕开价格战,转而争夺下一代内存形态的规则制定权。
五、ZAM 在 AI 系统中的真实定位:让 HBM 回到“该在的位置”
如果用系统视角来看,ZAM 并不是要“消灭 HBM”,而是重新分工:
HBM:继续服务极限算力、极低延迟场景
ZAM:承担大容量、高能效、高性价比的核心内存层
这将直接改变 AI 系统的成本结构、功耗模型与扩展方式,尤其利好:
大模型推理
HPC
国家级算力与科研系统
六、时间窗口的冷静判断:这是 2030 年之后的牌局
已披露的时间表非常清晰:
2027 年:ZAM 原型
2029 年:商业化落地
这意味着:ZAM 无法缓解今天的 HBM 紧缺,但它可能定义下一个十年的 AI 内存基础设施。
在此之前:
HBM 仍是刚需
CXL、内存池化是过渡方案
ZAM 是“为下一轮周期准备的底牌”
结语:AI 进入成熟期,内存必须从“外挂”变成“底座”
HBM 成就了 AI 的爆发期,但它不一定适合 AI 的成熟期。ZAM 的真正意义,不在于参数碾压,而在于让 AI 系统重新具备可扩展性与经济性。
算力决定上限,内存决定规模。
当行业开始认真讨论 ZAM 这类技术时,说明 AI 已经走到了一个新的阶段。
* 本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利。