Rambus 推 HBM3 内存子系统:速率高达 8.4Gbps,带宽突破 1TB
8 月 25 日报道,今天,美国内存 IP 厂商 Rambus 宣布推出 HBM3 内存接口子系统,其传输速率达 8.4Gbps,可以为人工智能/机器学习(AI/ML)和高性能计算(HPC)等应用提供 TB 级带宽,是当前速率最快的 HBM 产品。预计 2022 年末或 2023 年初,Rambus HBM3 将会流片,实际应用于数据中心、AI、HPC 等领域。
芯东西等媒体与 Rambus 大中华区总经理苏雷、Rambus IP 核产品营销高级总监 Frank Ferro 就 Rambus HBM3 的具体性能以及 Rambus 对客户的支持等进行了深入交流。
一、支持 8.4Gbps 数据传输速率,带宽超 TB
据 Frank 分享,随着越来越多的公司进入人工智能市场,这对内存带宽提出了很多要求,而神经网络和深度学习等 AI 应用也在不断推动内存带宽增长。
咨询公司 IDC 内存半导体副总裁 Soo Kyoum Kim 曾称:"AI/ML 训练对内存带宽的需求永无止境,一些前沿训练模型现已拥有数以十亿的参数。"
Rambus 的 HBM3 内存子系统提高了原有性能标准,包含完全集成的 PHY 和数字控制器,可以支持当下很多 AI 及 HPC 应用。
具体来说,HBM3 的数据传输速率高达 8.4Gbps/pin,带宽达 1075.2GB/s(1.075TB/s)。Rambus 的 HBM3 支持标准的 64 位 16 通道,支持 2、4、8、12 和 16 HBM3 DRAM 堆栈,信道密度达 32Gb。
Frank 回应芯东西记者问题时称,HBM3 的流片时间预计为 18 个月,因此可能会在 2022 年末或 2023 年初出片,并实际应用于部分客户。
▲ Rambus HBM3 产品性能亮点与目标市场
Frank 称,由于其数据传输速率和带宽较高,HBM3 可以应用于 AI、机器学习、HPC 等多种应用。
HBM3 采用了 2.5D 架构,最上面集成了 4 条 DRAM 内存条,通过堆叠的方式集成在了一起。内存条下方是 SoC 和中介层,最下面的绿色部分则是封装。
对客户来说,Rambus 会提供 SI/PI 专家技术支持,确保设备和系统具有最优的信号和电源完整性。作为 IP 授权的一部分,Rambus 也将提供 2.5D 封装和中介层参考设计。
▲ Rambus HBM3 产品架构
Frank 还给出了 HBM 性能的演进图。
2016 年 HBM2 的带宽为 256GB/s,I/O 数据速率为 2Gbps;HBM2E 的带宽则能达到 460GB/s,数据传输速率达 3.6Gbps;SK 海力士公布的 HBM3 带宽和传输速率分别为 665GB/s 和 5.2Gbps;Rambus 的 HBM3 性能又进一步提升,分别达 1075GB/s 和 8.4Gbps。
▲ HBM 产品性能演进图
Frank 强调,虽然 Rambus 的 HBM3 性能比 SK 海力士此前公布的要更进一步,但 SK 海力士作为 Rambus 的重要客户,Rambus 也会为其提供支持。
苏雷还透露,当前国内的一流 AI 芯片厂商都和 Rambus 有所接触,预计行业将会快速升级到 HBM3 标准。
二、Rambus 优势:市场经验丰富、支持多厂商制程节点
对于 Rambus 能够为客户提供的服务,Frank 提到 Rambus 在 HBM 市场中拥有丰富的经验和技术优势。
Rambus 在 2016 年就进入了 HBM 市场,其 HBM2E 内存子系统拥有行业中最快的 4Gbps 速率。
凭借产品性能,Rambus 获得了超过 50 个市场订单,是市场份额排名第一的 HBM IP 供应商。Rambus 的芯片开发基本一次就能成功,无需返工,提升了设计效率。
同时,Rambus 的 HBM2/2E PHY(端口物理层)支持台积电、三星等多个先进制程节点。其产品集成了 PHY、IO、Decap 等,其客户可以直接采用。
Rambus 也与 SK 海力士、三星等 DRAM 供应商关系紧密,其测试芯片已经经过了市场上所有供应商的 DRAM 验证,能够为客户提供便捷地服务。
▲ Rambus 在 HBM 市场中的优势
三、2025 年全球数据使用量将达到 175ZB,AI 芯片市场将达百亿美元
Rambus 大中华区总经理苏雷分享了近年来 Rambus 所取得的成绩。Rambus 创建时间已经超过 30 年,公司总部位于美国加利福尼亚州,在欧盟和亚洲等地设有办事处,全球员工人数超过 600 人。
Rambus 拥有 3000 余项专利和应用,2020 年经营现金流达 1.855 亿美元,来自产品、合同等收入同比增长 41%。其主要的客户有三星、美光、SK 海力士等内存厂商和高通、AMD、英特尔等芯片厂商,Rambus 75% 以上的收入来自于数据中心和边缘计算产品销售。
▲ 半导体产业生态
从市场来说,人工智能/机器学习越来越多地应用于各个领域。预计到 2025 年,超过 25% 的服务器将用于人工智能领域,AI 芯片市场将达到 100 亿美元。
2025 年,全球数据使用量将达到 175ZB,年均复合增长率达 35%,服务器整体年增长率为 8%。苏雷称,Rambus 也将致力于使数据传输更快、更安全。
▲ 数据中心市场趋势
结语:HBM3 将推动 AI、HPC 应用发展
相对于 GDDR 显存,HBM 有着高带宽的特性,是数据密集型应用内存和数据处理瓶颈的解决方案之一。
本次 Rambus HBM3 IP 的推出,将再次推动 HBM 产品性能的提升,推动人工智能、高性能计算等应用发展。
2022-05-06 12:03:08