|
|
|
www.design-reuse-china.com |
|

AI時代驅動 HBM掀起下一代「儲存革命」
在人工智慧(AI)與資料中心需求的驅動下,高頻寬記憶體(HBM)被譽為AI時代的「新石油」,也正掀起下一代「儲存革命」。
www.eettaiwan.com, Sept. 16, 2025 –
隨著AI模型的複雜度和規模不斷提升,尤其是生成式AI和大模型訓練對算力的需求激增,資料中心對高性能儲存的需求也日益迫切。而HBM透過垂直堆疊多個DRAM晶片,結合矽通孔(TSV)技術,實現了遠超傳統DDR或GDDR的頻寬和容量,從而有效緩解了AI晶片面臨的「儲存牆」問題。
HBM技術作為下一代高效能運算(HPC)和AI應用的核心技術,其技術路線圖和最新發展動態備受關注。近期,韓國科學技術院(KAIST)旗下的Terabyte Interconnection and Package Laboratory(TERALAB)發佈了關於HBM的研究成果。這項研究成果由被業內部分人士譽為「HBM之父」的金正浩教授主導完成,詳細闡述了HBM的未來路線圖,揭示了HBM4到HBM8的諸多技術細節,將為未來資料中心和AI應用提供強大的技術支撐。
與此同時,受到AI和HPC需求的驅動,尤其是在Nvidia、AMD和英特爾(Intel)等晶片巨頭的推動下,HBM市場正迎來新一輪的升級和競爭。而儲存原廠如SK海力士(SK hynix)、三星(Samsung)和美光科技(Micron)也正積極推進HBM4的量產。值得注意的是,日本軟銀(Softbank)近日也宣佈與英特爾合作開發一款新型堆疊式DRAM晶片,其設計不同於現有的HBM,預計可將電力消耗減少約50%。
以上發展動態和產業趨勢,不僅反映了AI和高效能運算需求的成長,也預示著HBM市場將迎來更加激烈的競爭和更快的技術演進。然而,HBM的發展仍面臨產能瓶頸、封裝技術難題,以及成本壓力等多重挑戰。未來,隨著技術的不斷進步和市場的持續擴張,HBM可望在AI和高效能運算領域發揮更加重要的作用,推動整個儲存產業邁入新的發展階段。
HBM成長的核心驅動力
進入2025年,全球科技巨頭在AI資料中心的投資與佈局顯著加速。
目前,AI算力集群的建設和資料中心的規劃,以科技公司的業務導向為主,如Microsoft Cloud、亞馬遜AWS、Google Cloud、阿里雲、騰訊雲等,透過AI賦能應用加速推動使用者上雲的需求,或像Meta、特斯拉(Tesla)等擁有海量資料和AI需求的公司,自建龐大的專用AI集群,其目的主要是服務自身業務。
今年1月,包括OpenAI、軟銀、甲骨文(Oracle)和中東AI基金MGX等在內的美國政府和多家科技巨頭合作啟動了「星際之門計畫」。該專案計畫在未來4年內投資高達5,000億美元,其中首期投資為1,000億美元。
與此同時,亞馬遜、微軟、Gggole和Meta等科技巨頭也將在2025年進一步擴大在AI資料中心的投資,以支援雲端運算和AI服務的擴展。據CFM統計,2025年大型雲服務商微軟、Google、亞馬遜和Meta的資本支出總額將超過3,200億美元,YoY增幅將達到30%。
其中,微軟計畫在2025財年投資800億美元用於AI資料中心,其中一半以上的支出將在美國。亞馬遜預計增加約3成,達到1,000億美元左右,主要用於AI相關業務。Google母公司Alphabet的資本支出則將從2024年的525億美元增至約750億美元,主要用於AI基礎設施,如伺服器和資料中心。Meta也計畫投資600~650億美元。
Meta CEO Mark Zuckerberg甚至表示,2025年是「AI的決定性一年」。
儘管DeepSeek R1發佈之後,AI的發展重心正從模型訓練向實際推理應用轉移,同時也在一定程度上緩解了產業算力焦慮,但「算力至上」的共識似乎仍沒有打破,也未真正動搖美國「星際之門」計畫的基礎。
值得關注的是,除了中美歐之外,中東國家也在加大AI資料中心的投資與佈局,特別是沙烏地阿拉伯和阿聯酋,正在透過大規模投資資料中心和AI基礎設施,推動本國的數位化轉型和經濟成長。根據SemiAnalysis預測,到2030年,中東地區資料中心營運容量可能將超過6GW,並仍可能有顯著的上升空間。僅阿聯酋的G42就計畫在2026年訂購數十萬顆GPU。
在AI資料中心的資本支出持續成長的同時,HBM的需求也將經歷「爆發式」成長。根據Yole Group的預測,主要用於AI的HBM市場營收將從2024年的170億美元成長到2030年的980億美元,年複合成長率高達33%。SK海力士預計,到2025年其HBM銷售額將佔其總記憶體銷售額的50%以上,該公司與美光科技的HBM產能在2025年均已完全分配完畢。
值得一提的是,HBM技術正從資料中心向行動終端等邊緣設備擴展。其中,行動HBM透過堆疊LPDDR DRAM來增加記憶體頻寬,同時保持低功耗,適合行動終端的高性能需求。三星和SK海力士就分別開發了VCS和VFO技術,以實現行動HBM的量產。未來HBM在行動大模型終端中的應用將普及,如AI手機、AI PC等設備對記憶體性能的要求不斷提高。最近有消息稱,2027年20周年紀念版iPhone將帶來多項創新,HBM技術預計被導入。而華為也打算將HBM技術導入到智慧型手機,甚至時間可能比蘋果(Apple)更早。
此外,HBM在智慧車中的應用也在不斷拓展。智慧車對即時資料處理、高解析度影像處理和資料儲存等需求較高,而HBM恰好能夠滿足這些需求,如SK海力士的HBM2E已用於Google旗下的Waymo自動駕駛車。不過,HBM在行動裝置和PC等邊緣設備中的應用仍面臨一些挑戰,其中成本較高是主要問題之一。
HBM技術演進
HBM技術自2015年推出以來,已經歷了從HBM1到HBM3e的多次演進,並正在向HBM4邁進。HBM4作為第六代HBM產品,將在多個方面實現重大技術突破,包括更高的頻寬、更大的容量、更低的功耗,以及更先進的封裝技術。
HBM3e是HBM3的擴展版本,在頻寬、容量和能效方面比HBM3有顯著提升,在2024年由美光科技、SK海力士等頭部廠商量產,是AI加速卡的標配記憶體。
根據TrendForce的預測,2025年HBM3E的市場需求將大幅成長,尤其是在AI晶片演進加速的背景下,HBM3E的單位用量和單晶片容量將顯著提升。HBM3E採用24Gb單晶晶片堆疊,並支援8層(8-Hi)和12層(12-Hi)配置,單個HBM3E晶片的容量可達24GB,這將為AI伺服器和高效能運算提供更強的算力支援。
毫無疑問,Nvidia是HBM市場的最大買家,2025年推出的Blackwell Ultra系列GPU將全面搭載HBM3E,其中B200系列將採用HBM3E 8-Hi配置,Blackwell Ultra則可能採用8顆12-Hi HBM3E,進一步提升其算力密度。TrendForce預測,2025年Nvidia在HBM3E市場的採購比重將突破70%,甚至可能達到85%以上。此外,Nvidia在2025年推出的GB200系列,進一步推動HBM3E的市場普及。
今年6月,AMD在2025全球AI發展大會發佈的最新Instinct MI350系列GPU,支援128條HBM3E記憶體通道,每顆HBM3E的單顆容量提升至36GB,總體記憶體容量達到288GB,記憶體頻寬提升至8TB/s,實現了4倍的AI運算能力提升和35倍的推理性能飛躍。
由此可見,HBM3E將成為2025年HBM市場的主流產品,其需求也將顯著成長。
点击阅读更多



Back