www.design-reuse-china.com
搜索,选择,比较,与提供商进行安全高效的联系
Design & Reuse We Chat
D&R中国官方微信公众号,
关注获取最新IP SOC业界资讯

AI大模型浪潮下,别让HBM内存控制器拖后腿

news.eeworld.com.cn, Dec. 17, 2023 – 

AI狂潮下,我们都对GPU短缺有所耳闻,而让它叱咤AI界背后最强"辅助"当属HBM(High Bandwidth Memory,高带宽内存),它已经成为目前首选的AI训练硬件。

简单解释,HBM是将很多DDR芯片堆叠在一起后和GPU封装在一起,实现大容量、高位宽的DDR组合阵列。打个比方来说,传统DDR是平房设计,HBM则是楼房设计,能够为GPU带来更高性能和带宽。

对于HBM来说,除了我们熟知的存储厂商,也拥有专注内存及高速接口领域的IP公司,Rambus就是走在前列的那一个。作为IP厂商排名前十的Rambus,至今成立已有33年。作为一家跨国科技公司,其总部位于硅谷的圣何塞,公司全球员工有600多名,70%为工程技术岗位。正如其名Ram(内存)和Bus(总线),从创立之初Rambus便致力于高端存储产品的研究与开发。

从未来趋势来看,预计到2025年,超过25%的服务器出货将会专供于AI领域。就拿参数量来说,2022年11月的ChatGPT参数是1750亿个,而到了今年3月参数量暴增至1.5万亿个,这一数字还在上升。这意味着,想要更好地追上AI发展速度,HBM内存控制器也要进一步迭代。为此,Rambus在12月7日宣布Rambus HBM3内存控制器IP现在可提供高达9.6 Gbps的性能,可支持HBM3标准的持续演进。

降低HBM行业的门槛

目前AI业界最常见的两大主流应用是AI训练和AI推理。对AI训练来说,需要建立一个模型,提供大量数据,从而让它能够去进行分析和掌握信息。AI推理则是通过已经经过训练的AI模型去实时运行新的数据,从而做出相应的预测,并产生相应的结果。

"二者不光应用领域不同,对于硬件的处理器和内存需求也是不同的。"Rambus 接口IP产品管理和营销副总裁 Joe Salvador对此分析,AI训练计算周期长,需要大量优质数据支撑,而这正是HBM最常被使用、最多被使用的领域。AI推理需要更加快速,能效比更好的硬件,大部分情况下,AI推理使用内存类型是GDDR和LPDDR等,但实际上,很多客户也会混合使用和交叉使用HBM。

从HBM演变历史可以看出,它所迭代非常迅速。比如说,从最开始的HBM1到2016年的HBM2,再到2018年发布的HBM2E,到2021年发布的HBM3,数据传输速率正在不断的提升。对比之下,从DDR4到DDR5过渡时间很长,但HBM技术迭代速度非常快。

目前,最新的产品世代是HBM3E,支持的数据传输速率达到9.6Gb/s,一个设备带宽总共加起来可以达到1.3Tb/s。

超分辨率重建技术

提高图像分辨率最直接的办法就是提高采集设备的传感器密度。然而高密度的图像传感器的价格相对昂贵,在一般应用中难以承受;另一方面,由于成像系统受其传感器阵列密度的限制,目前已接近极限。

解决这一问题的有效途径是采用基于信号处理的软件方法对图像的空间分辨率进行提高,即超分辨率(SR:Super-Resolution)图像重建,其核心思想是用时间带宽(获取同一场景的多帧图像序列)换取空间分辨率,实现时间分辨率向空间分辨率的转换,使得重建图像的视觉效果超过任何一帧低分辨率图像。

点击阅读更多

 Back

业务合作

添加产品

供应商免费录入产品信息

点击此处了解更多关于D&R的隐私政策

© 2026 Design And Reuse

版权所有

本网站的任何部分未经Design&Reuse许可,
不得复制,重发, 转载或以其他方式使用。