HMC与HBM:AI大潮下内存技术的兴衰与未来展望

   日期:2024-12-07     来源:网络整理    作者:二手钢材网    浏览:232    评论:0    
核心提示:堆栈底部的逻辑控制器芯片。处理器没有集成到堆栈中,从而避免了芯片尺寸不匹配和散热问题,却带来了一个新的问题,就是处理器离存储器堆栈比较远,这日后也将成为HMC的重要短板。TSV技术,但是,HBM却多了一层Interposer,通过Interposer将DRAM堆栈和GPU紧密集成在一起。

HMC混合内存立方体和HBM高带宽内存都承担起了替代DDRx的任务。两者具有相似的名称和相似的结构。它们均支持3D TSV,性能同时比DDRx提升数倍。

在AI大潮的推动下,HBM蓬勃发展,而HMC却悄然退却。到底是什么原因造成如此大的差异呢?本文将与您一起分析原因。

动态随机存取存储器

哈马斯

HMC(Cube) Cube曾经被视为一项革命性的技术,并被寄予厚望。

HMC由和Intel共同开发,最初是为了彻底解决DDR3面临的带宽问题而设计的。

HMC于2011年推出,对于美光来说意义重大。这将是击败韩国两大厂商三星和海力士的得天独厚的利器。

在HMC标准中,四个DRAM Die通过3D TSV连接到堆栈底部的逻辑控制芯片Logic Die。示意图如下:

个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的_个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的_

TSV技术诞生于1999年,最早在存储器行业实现商业化,是先进封装领域最重要的技术。

2011年,HMC凭借TSV技术荣获当年《微处理器报告》最佳新技术奖,一炮而红。

在 HMC 设计中,从 CPU 处理器到内存堆栈的通信通过高速数据链路进行,该数据链路连接到 DRAM 堆栈底部的逻辑控制器芯片。处理器没有集成到堆栈中,从而避免了芯片尺寸不匹配和散热问题。不过,它带来了一个新的问题,那就是处理器距离内存堆栈较远,这也将成为未来HMC的一个重要短板。

HMC本质上是一个完整的DRAM模块,可以安装在多芯片模块(MCM)或2.5D无源连接器上,以更接近CPU,但没有人真正这样做。

此外,美光还推出了一种“远存储器”配置,其中HMC的一部分连接到主机,而HMC的另一部分通过串行连接与其他HMC连接,形成存储器立方体网络。

对于很多人担心的延迟问题,美光表示,虽然HMC的串行链路会略微增加系统延迟,但整体延迟明显降低。 HMC 的能效大约是 DDR4 的 3 倍(以 pj/bit 为单位)。为单位)。

动态随机存取存储器

HBM

HBM(High)高带宽内存将许多DRAM芯片堆叠在一起,并与GPU封装在一起,实现大容量、高带宽的DRAM组合阵列。

_个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的_个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的

首先,HBM 垂直堆叠存储芯片。四个 DRAM Die 通过 3D TSV 连接到堆栈底部的逻辑控制芯片 Logic Die。这与 HMC 相同。然后,这些 DRAM 堆栈通过中介层连接到 CPU 或 GPU。

尽管这些 HBM 堆栈并未与 CPU 或 GPU 3D 集成,但它们通过中介层如此紧密、快速地连接在一起,以至于 HBM 的特性几乎与片上集成 RAM 没有区别。

HBM 由 Hynix 和 AMD 联合开发。它于 2013 年推出,比 HMC 晚了两年。

HBM采用128位宽通道,最多可以堆叠8个通道形成1024位接口,总带宽在128GB/s到256GB/s之间。

动态随机存取存储器

HMC 与 HBM

比较HMC和HBM,我们可以看到它们有多么相似。两款DRAM均堆叠在逻辑控制器上,均采用3D TSV技术,均由大厂推出(HMC:美光+Intel;HBM:海力士+AMD),HMC于2011年推出,HBM于2013年推出,也非常接近。

如今,HBM正处于鼎盛时期,而HMC却已淡出世界。为什么?

笔者分析大致有以下两个原因:1.结构差异,2.行业标准。

结构性差异

个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的_个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的_

虽然 HMC 和 HBM 具有相似的结构,两者都将 DRAM 堆叠在逻辑控制器之​​上,并且都使用 3D TSV 技术,但 HBM 通过紧密集成 DRAM 堆栈和 GPU 多了一层。可以说,有GPU的地方,就一定有HBM。

HBM 通过 GPU 奠定了自己的地位。 AMD和都选择了HBM作为自家显卡的显存。他们正在追赶人工智能的潮流,想不流行都难。

HMC 将内存堆栈放置在距离 CPU/GPU 很远的位置的方法意味着 3D 芯片堆栈和固有的低延迟的大部分优势都会丧失。毕竟,这是无法逃脱物理定律的,信号的传输速度也只能这么快。快的。更远意味着更大的延迟。

假设系统分别包含HBM和HMC,我们画出最小的立方体,检查它的功能密度,即单位体积内包含的功能单元的数量,可以简单理解为单位体积内包含的晶体管的数量。可以看出,HBM明显大于HMC,即HBM具有更高的功能密度。因此,HBM作为先进封装的重要指标,是比较先进的。

在热量能够散发的前提下,紧凑、紧凑是先进封装的设计原则。为此,我提出了功能密度定律作为描述系统集成的重要基础。详细内容请参见我的书《基于SiP技术的微系统》。

通过3D TSV集成,垂直堆叠芯片解决了芯片上晶体管等微小元件的一个重要问题:距离。

通过将设备垂直堆叠在一起,可以最小化它们之间的距离,从而减少延迟和功耗。在这一点上,HMC和HBM都实现了这一点。

然而,HMC与CPU/GPU没有紧密集成,从而影响了其功能密度。而 HBM 通过将内存堆栈与 CPU/GPU 紧密集成,有效提高了其​​功能密度,从而赢得了竞争。

个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的__个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的

HMC是典型的3D集成技术,而HBM则更上一层楼,被称为3.5D集成技术。别小看这0.5个维度,它可以带来更紧密的集成,从而提高系统的功能密度。

从结构上来说,HBM真正击败HMC的原因是什么?距离。

有人问,HMC打败HBM是不是因为它是3D封装而HBM是3.5D?是的,确实可以理解。

行业标准

结构上的缺陷使得HMC在功能密度方面不可避免地逊色于HBM。 HBM推出后,HMC的颓势已然明显。

对HMC的致命打击是,HBM推出后不久,就被定为JEDEC行业标准。尽管 HMC 比 HBM 早两年推出,但只有一家 HMCC 为其提供支持。

一种是业界各大科技公司认可的大组织,另一种是美光自身形成的小圈子。在比赛正式开始之前,获胜者就已决出。

JEDEC拥有数百家会员公司,奉行一家公司一票三分之二多数的制度,从而降低了标准制定被任何一个或一组公司控制的风险。也就是说,JEDEC标准的话语权并不由巨头掌控。只有当大家真正认识到它之后,它才会最终被推广为正式标准。

_个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的_个 DRAM Die通过3D TSV连接到堆栈底层的逻辑控制芯片Logic Die,这点和HMC是相同的

2018年,人工智能开始兴起,高带宽成为内存行业关注的焦点。与GPU紧密结合的HBM赢得了最大的市场。主要推广该标准的海力士和三星成为大赢家。 HBM 的大客户 和 AMD 也因此赚了不少钱。

HMC早已失去了2011年刚推出时的辉煌,可用的人不多,美光也不再痴迷。 2018年8月,宣布正式放弃HMC,转向HBM。

毕竟美光晚了一步,市场份额明显落后于两家韩国厂商。最新数据显示,SK海力士占据全球HBM市场50%份额,排名第一;三星紧随其后,占比40%;美光排名第三,市场份额仅为10%。

人工智能的崛起或许是压垮HMC的最后一根稻草。

如今事情已经发生,美光不禁感叹:天生丽质,怎能光明正大?

半导体世界,新技术层出不穷,碧波荡漾的湖面星罗棋布,闪烁着科技的光芒。

有些技术曾一度光芒四射,但最终黯然失色,而另一些技术却长期存活下来,推动了人类科技的巨大进步。

胜者为王,败者为寇,在半导体领域也是如此。

 
打赏
 
更多>同类资讯

0相关评论
推荐热播视讯

推荐视频

    Copyright © 2017-2020  二手钢材网  版权所有  
    Powered By DESTOON 皖ICP备20008326号-2