www.design-reuse-china.com
搜索,选择,比较,与提供商进行安全高效的联系
Design & Reuse We Chat
D&R中国官方微信公众号,
关注获取最新IP SOC业界资讯

HBM已成AI处理器的"氧气":没有它,算力无法呼吸

HBM凭借其突破AI处理器内存瓶颈的能力,成为2024年的一大技术亮点。随着HBM4内存器件的出现,这一趋势很可能在2025年及以后持续下去。

www.eet-china.com, Aug. 17, 2025 – 

高带宽存储器(HBM)再次成为人们关注的焦点。在加州圣何塞举办的GTC 2025大会上,SK海力士展示了用于人工智能(AI)服务器的12层(12Hi)HBM3E器件。这家韩国存储器制造商还展示了其目前正在开发的12Hi HBM4模型,并声称目前正在完成2025年下半年大规模生产的准备工作。

另一家领先的存储器供应商美光科技(Micron)表示,其HBM芯片在AI和高性能计算(HPC)应用领域需求强劲。美光公司首席商务官Sumit Sadana向路透社表示,美光公司2025年的所有HBM芯片都已售罄。

HBM本质上是一种将多个DRAM裸片垂直堆叠在逻辑裸片上的3D结构,它依赖于硅通孔(TSV)等先进封装技术,同时使用硅中介层与处理器互连。事实证明,它非常适合HPC和AI工作负载等并行计算环境。

这是因为HBM可以同时处理来自GPU和AI加速器中不同内核的多个内存请求,从而促进并行工作负载处理。实际上,HBM已成为克服数据密集型HPC和AI工作负载中内存瓶颈的主要手段。否则,这些内存瓶颈会导致AI处理器利用率不足。

HBM器件的另一个关键优势在于其持续发展,以提升AI加速器的性能。例如,当前一代HBM3E器件采用热压技术,并结合微凸点和底部填充工艺来堆叠DRAM裸片。接下来,美光、三星和SK海力士等HBM制造商正向HBM4器件转型,该器件采用铜铜混合键合等先进封装技术,以提高I/O口数量、降低功耗、改善散热并减小电极尺寸。

市场研究公司IDTechEx的报告"Hardware for HPC, Data Centers, and AI 2025-2035: Technologies, Markets, Forecasts"(2025-2035年HPC、数据中心和AI硬件:技术、市场与预测)评估了服务于AI和HPC工作负载的HBM器件的关键发展和趋势。报告还预测,到2035年时,与2024年相比,HBM的单位销量预计将增长15倍。

HBM凭借其突破AI处理器内存瓶颈的能力,成为2024年的一大技术亮点。随着HBM4内存器件的出现,这一趋势很可能在2025年及以后持续下去。

(原文刊登于EE Times姊妹网站EDN,参考链接:HBM memory and AI processors: Happy together,由Franklin Zhao编译。)

本文为《电子工程专辑》2025年8月刊杂志文章,版权所有,禁止转载。免费杂志订阅申请点击这里。

点击阅读更多

 Back

业务合作

添加产品

供应商免费录入产品信息

点击此处了解更多关于D&R的隐私政策

© 2026 Design And Reuse

版权所有

本网站的任何部分未经Design&Reuse许可,
不得复制,重发, 转载或以其他方式使用。