AI大戰如火如荼,HBM芯片原地起飛!

財華社

發布 2024年4月22日 19:26

更新 2024年4月22日 19:45

AI大戰如火如荼,HBM芯片原地起飛!

在OpenAI的ChatGPT橫空出世後,新一輪AI浪潮就此引爆,英偉達(NVDA.US)、台積電(TSM.US)等公司也上演了一出出「大象起舞」的好戲。

而伴隨著AI芯片需求的井噴,HBM芯片的市場空間也在大幅增長,成為了一條黃金賽道。

HBM芯片是什麽?

AI芯片需要處理大量並行數據,主要是英偉達的GPU能爆賣的根本原因。

AI芯片要求高算力和大帶寬,算力越強、每秒處理數據的速度越快,而帶寬越大、每秒可訪問的數據越多,算力強弱主要由AI芯片決定,帶寬由存儲器決定,存力是限制AI芯片性能的瓶頸之一。

HBM(高帶寬存儲器)是GDDR的一種,定位在處理器片上緩存和傳統DRAM之間,兼顧帶寬和容量,較其他存儲器有高帶寬、低功耗、面積小的三大特點。目前面臨的一個問題是,HBM的價格曾一度遠超普通DRAM,這使得它在市場中一度陷入尷尬的境地。

而AI浪潮的到來給HBM帶來了「福音」,立體堆疊的HBM完美契合大模型的要求。

在AI場景中,英偉達首先設計完GPU,然後採購海力士的HBM,最後交由台積電利用CoWoS封裝技術將GPU和HBM封裝到一張片子上,最終交付給AI服務器廠商。

由此可見,在此過程中,GPU、GPU代工商以及HBM生產商之間形成了緊密而穩固的合作關系,彼此之間的聯系十分緊密。

HBM供不應求,海力士、三星積極擴產

如今AI領域發展得如火如荼,HBM的市場規模也隨之水漲船高。

據悉,當下主流AI訓練芯片均使用HBM,一顆GPU配多顆HBM。其中,英偉達1顆H100配5顆HBM3、容量80GB,H200使用6顆HBM3E(全球首顆使用HBM3E的GPU)、容量達144GB。

3月18日,英偉達宣告稱,公司的B100和B200使用192GB(8個24GB8層HBM3E),HBM用量進一步提升。

此外,超威半導體(AMD.US)的MI300系列、谷歌的TPU系列均使用HBM。

在具體的市場規模方面,據了解,在AI沒有爆發之前,市場預測全球HBM將平穩增長至一個100億美元的市場。

而根據新的測算,2023年HBM市場規模為40億美元,預計2024年增長至150億美元,到2026年增長至接近250億美元,年復合增速高達80%以上。

值得注意的是,於2023年11月,海力士CEO稱,預計到2030年,海力士每年HBM出貨量將達到1億顆,隱含產值規模將接近300億美元,假設屆時海力士市場份額為50%,則整個市場空間將在500億美元左右。

在競爭格局方面,HBM的供應由SK海力士、三星電子和美光科技(MU.US)三大廠商壟斷,2022年三者的份額分别為50%、40%、10%。

獲取APP
加入百萬使用者的行列,時刻緊貼全球金融市場動向!
立即下載

其中,SK海力士是HBM先驅,HBM3全球領先,與英偉達強綁定、是英偉達主要HBM供應商,三星電子緊隨其後,美光科技則正在積極追趕中,HBM3E進度直逼SK海力士。

目前,當下的HBM市場處於供不應求狀態。

而三家大廠壟斷市場,彼此之間的競爭也比較激烈。其中,SK海力士和三星電子均計劃在2024年將HBM產能提升2倍以上。

另外,SK海力士已在今年3月宣佈開始量產8層HBM3E,3月底開始發貨;美光科技則跳過HBM3直接做HBM3E,已於2月底宣佈量產8層HBM3E;三星電子則在今年2月底發佈12層HBM3E。

需要指出的是,近兩年芯片領域一片「寒意」,SK海力士、三星電子和美光科技一度遭遇業績暴降,甚至出現巨虧的情況,如下圖所示。