英特尔ZAM 能否终结HBM的垄断?

作者:电子创新网编辑部

当 AI 芯片的算力以指数级增长,真正拖慢系统进化的,已经不再是计算单元,而是内存

过去两年,HBM(高带宽内存)被推上神坛,成为 GPU 与 AI 加速器的“生命线”;但与此同时,它也正在演变为整个 AI 产业链中最昂贵、最稀缺、最难扩展的资源。正是在这样的背景下,英特尔联合软银旗下 SAIMEMORY 推动的 Z-Angle Memory(ZAM),开始浮出水面。

这不是一次“更快内存”的竞赛,而是一场关于 AI 系统底层结构的路线之争

一、HBM 的成功,正在变成 AI 的结构性负担

HBM 的价值无需怀疑。
它通过 TSV 堆叠、超宽接口,将内存带宽直接拉到 TB/s 级别,使得大模型训练成为可能。

但问题同样清晰:

  • 成本失控:HBM 占 AI 加速卡      BOM 成本 30%~50%

  • 产能极度集中:高度依赖少数 DRAM 厂商

  • 封装受限:CoWoS 等先进封装成为新瓶颈

  • 系统扩展性差:容量受封装尺寸和功耗严格约束

HBM 更像是一种为极限算力服务的“外挂式内存”——它解决了“能不能跑”,却没有解决“能不能规模化”。

这正是 ZAM 试图切入的产业断点。

二、ZAM 想做的不是“下一代 HBM”,而是换一套逻辑

从技术路径看,ZAM 同样采用 Z 轴方向的垂直堆叠,但它的目标并非极限带宽,而是:在容量、带宽、能效与成本之间,重新建立 DRAM 的最优解。

为了更直观理解两者的本质差异,我们必须把 HBM 与 ZAM 放在同一张产业维度表中来看。

三、HBM vs ZAM:关键维度对照表(产业视角)

对比维度

HBM(High    Bandwidth Memory)

ZAM(Z-Angle    Memory)

技术本质

DRAM + 先进封装的算力外挂

DRAM 架构级重构

堆叠方式

TSV 垂直堆叠 + 封装内集成

Z 轴晶圆级垂直键合(NGDB)

设计目标

极限带宽

容量 × 带宽 × 能效综合最优

单封装容量

有限(几十~百 GB)

目标为 HBM 的 2–3 倍

带宽特性

极高(TB/s 级)

高于传统 DRAM,低于极限   HBM

功耗水平

高,且与 GPU 强绑定

显著低于 HBM

成本结构

极高,受封装与良率制约

目标明显低于 HBM

制造体系

高度依赖先进封装

更接近 DRAM 制造逻辑

供应链集中度

极高

潜在更分散、更开放

系统绑定程度

强绑定 GPU / AI 加速器

系统形态更灵活

典型应用

AI 训练、顶级加速器

推理 / HPC / 下一代 AI   系统

当前阶段

已量产,长期供不应求

原型阶段,2029 商用

一句话结论:HBM 是“为算力服务的内存”,而 ZAM 试图成为“为系统服务的内存”。

四、NGDB:英特尔真正押注的是“制造方法论”

ZAM 的技术根源,来自英特尔主导的 NGDB(Next Generation DRAM Bonding) 项目。这个项目有三个被外界低估的信号:

这是英特尔 NGDB 研发项目的一部分,是一款内存测试探针卡(图片由英特尔提供)。.png

英特尔 NGDB 研发计划中的一款存储器测试探针卡(图片来源:英特尔)

1️ 国家级工程,而非企业试验

NGDB 隶属于美国 DOE / NNSA 的 先进存储技术(AMT)计划,联合了英特尔、SK 海力士、软银以及美国三大国家实验室。

这意味着 ZAM 并非市场噱头,而是为长期系统演进准备的技术储备

2️ 核心突破在“键合与堆叠方式”

NGDB 的创新重点不在单颗 DRAM 单元,而在于:

  • 多晶圆垂直键合

  • 新型 via-in-one 架构

  • 面向量产的一致性控制

这正是 HBM 成本和良率的核心痛点。

3️ 英特尔试图重夺“内存架构定义权”

在传统 DRAM 市场失守后,英特尔选择绕开价格战,转而争夺下一代内存形态的规则制定权

五、ZAM 在 AI 系统中的真实定位:让 HBM 回到“该在的位置”

如果用系统视角来看,ZAM 并不是要“消灭 HBM”,而是重新分工

  • HBM:继续服务极限算力、极低延迟场景

  • ZAM:承担大容量、高能效、高性价比的核心内存层

这将直接改变 AI 系统的成本结构、功耗模型与扩展方式,尤其利好:

  • 大模型推理

  • HPC

  • 国家级算力与科研系统

六、时间窗口的冷静判断:这是 2030 年之后的牌局

已披露的时间表非常清晰:

  • 2027 年:ZAM 原型

  • 2029 年:商业化落地

这意味着:ZAM 无法缓解今天的 HBM 紧缺,但它可能定义下一个十年的 AI 内存基础设施。

在此之前:

  • HBM 仍是刚需

  • CXL、内存池化是过渡方案

  • ZAM 是“为下一轮周期准备的底牌”

结语:AI 进入成熟期,内存必须从“外挂”变成“底座”

HBM 成就了 AI 的爆发期,但它不一定适合 AI 的成熟期。ZAM 的真正意义,不在于参数碾压,而在于让 AI 系统重新具备可扩展性与经济性

算力决定上限,内存决定规模。

当行业开始认真讨论 ZAM 这类技术时,说明 AI 已经走到了一个新的阶段。

* 本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利。