意昂体育

最近关于HBF的讨论越来越多,HBF 即高带宽闪存,是闪迪在 2025 年 2 月提出的专为 AI 领域设计的新型存储器架构。它借鉴 HBM 的堆叠思路,依托自身 CBA 技术,将 16 层核心芯片堆叠并通过硅通孔互联,能匹配 HBM 的带宽,相近成本下容量却达 HBM 的 8 - 16 倍,单堆栈容量可达 512GB。该技术适合读取密集型 AI 推理任务,可用于手机端大模型本地化、自动驾驶等场景,闪迪计划 2026 年下半年交付样品,还联合 SK 海力士推进其技术标准化。 从下面的图中可以看

意昂体育

热线电话:

意昂体育

关于HBF的一些看法

点击次数:61发布日期:2025-11-24 11:57

最近关于HBF的讨论越来越多,HBF 即高带宽闪存,是闪迪在 2025 年 2 月提出的专为 AI 领域设计的新型存储器架构。它借鉴 HBM 的堆叠思路,依托自身 CBA 技术,将 16 层核心芯片堆叠并通过硅通孔互联,能匹配 HBM 的带宽,相近成本下容量却达 HBM 的 8 - 16 倍,单堆栈容量可达 512GB。该技术适合读取密集型 AI 推理任务,可用于手机端大模型本地化、自动驾驶等场景,闪迪计划 2026 年下半年交付样品,还联合 SK 海力士推进其技术标准化。

从下面的图中可以看出,HBF是跟处理器封装在一起的,因此肯定不是简简单的ssd的升级版。

根据官方的介绍,HBF的优势主要有以下几个方面:高容量:HBF可以提供比HBM高8-16倍的存储容量,支持更大的数据集和更复杂的模型处理,特别适合需要海量内存的应用场景。

1、低成本:相比HBM,HBF的单位容量价格更低,在性能接近的情况下,能以更经济的方式扩展内存。

2、低功耗:HBF在功耗控制上表现出色,尤其适用于读密集型任务如AI推理,相比HBM更节能。

3、高带宽和低延迟:HBF能匹配HBM的带宽表现,同时保持高效的数据处理速度和较低的延迟,提升系统整体性能。

4、扩展性和适用性:基于闪存的特性,使其在AI浪潮中适合终端扩展和大规模部署,尤其在读写不均衡的应用中表现出色

但HBF也有两个很关键的问题:

其一,DRAM 没有生命周期限制,可闪存存在寿命期限。要是把闪存作为不可区分的组件整合到 GPU 里,一旦闪存寿命耗尽,GPU 板卡就会损坏,可 GPU 价值数万美元,这显然是个问题。

其二,DRAM 的工作温度可达 125 摄氏度,闪存则是 80 到 85 摄氏度。可 GPU 板卡的热量很高,这也是个挑战。

在当前架构里,GPU 接收数据的流程是 SSD/HDD → HBM → GPU,这使得 HBM 同时负责计算内存和缓存网关的工作,进而形成了延迟瓶颈。

而 HBF 因直接与 GPU 相连,能够不经过 HBM 就快速提供所需数据。这会带来一系列连锁反应:token生成速度提升 → GPU 空闲时间减少 → 人工智能总拥有成本(TCO)降低 → 大型语言模型服务的单位成本下降。

换句话说,HBM + HBF 的混合架构有助于大幅降低模型推理成本。

所以,HBF的出现,并不会完全取代HBM,HBF 将在与 HBM 配合使用的同时,承担大容量辅助内存的角色。而一旦 HBF 实现商业化,HBM 需求增长的斜率预计将趋于平缓。

(文章来源:本文转自More Than Semi。转载仅用于分享、学习,不做商用。如有侵权,请联系删除。)