SRAM 挑战 HBM 地位:英伟达黄仁勋指 AI 芯片容量瓶颈成关键

AI资讯1个月前发布 ainav
29 0

1月8日,科技媒体Tom’s Hardware在CES 2026展会期间发布了一篇博文,针对当前AI领域关于存储技术选择的热门话题进行了报道。英伟达首席执行官黄仁勋在问答环节中就”是否可能用成本更低的SRAM替代昂贵的HBM”这一问题发表了看法。

需要说明的是,SRAM(静态随机存取存储器)是一种基于触发器、速度极快但成本高昂且密度较低的高速缓存技术,主要用于片上缓存;而HBM(高带宽内存)则是一种通过3D堆叠技术实现的系统级高带宽内存解决方案,具有低功耗和大容量的特点,主要应用于AI/GPU领域。两者在AI计算中扮演着不同的角色。

当前AI行业正在积极寻求降本增效的新方案。随着SRAM加速器、GDDR推理方案以及开源模型的兴起,业界出现了一种观点,认为这些成本较低的技术路线可能成为对英伟达现有昂贵组件架构的替代选择。

在基准测试和受控演示中,SRAM凭借其极低延迟和快速访问特性展现出了显著的性能优势,甚至一度被认为是HBM的理想替代品。

对于这一观点,黄仁勋并未完全否定SRAM的速度优势。他承认:”对于某些特定工作负载,SRAM确实表现得非常出色。”但他强调指出,这种优势在生产级AI系统中会迅速消失。由于SRAM的容量瓶颈,在实际应用中其性能优势往往难以持续。

黄仁勋进一步分析了SRAM的局限性:与HBM相比,SRAM的容量提升速度远远跟不上现代AI模型的需求增长。这意味着使用SRAM构建的系统只能支持极小规模的模型,当模型因上下文增加或功能扩展而超出其存储能力时,系统必须调用外部内存,导致效率优势丧失殆尽。

黄仁勋还强调了现代AI工作负载的不可预测性。当前AI模型呈现出多样化特征,包括混合专家模型(MOE)、多模态任务处理、扩散模型以及自回归模型等多种类型。这些不同的架构对硬件系统提出了多样化的性能要求:有的侧重显存容量,有的注重互连带宽(如NVLink),且这种需求时刻都在发生变化。

基于此,英伟达坚持选择了HBM的技术路线。黄仁勋认为,在共享数据中心的场景下,系统的灵活性才是决定经济效益的关键因素。如果硬件过于专注于某一特定模式(比如纯SRAM)进行优化,在面对多样化的工作负载时就会显得力不从心,造成资源的巨大浪费。

相比之下,尽管HBM方案在物料成本上更高,但它能够更好地适应不断变化的算法和模型架构需求,从而保证硬件在整个运营周期内都能维持较高的利用率。

当被问及开源模型是否会削弱英伟达的技术壁垒时,黄仁勋表示:”开放并不等同于降低基础设施要求。随着开源模型开始支持更长的上下文窗口和更多样的模态类型,其对内存资源的需求也会显著增加。”

最后,黄仁勋重申了英伟达选择承担HBM带来的高成本和复杂系统设计的原因:这种选择是为了保持产品的”可选性”(Optionality)。具体来说,就是要防止客户被限制在性能提升空间有限的狭窄范围内,同时也要保护硬件免受快速迭代的模型架构更新的影响。

SRAM 挑战 HBM 地位:英伟达黄仁勋指 AI 芯片容量瓶颈成关键

© 版权声明

相关文章