隨著生成式 AI 技術(shù)的存儲快速迭代,算力需求呈指數(shù)級增長,技術(shù)F加存儲系統(tǒng)已成為制約 AI 性能進(jìn)一步提升的分化核心瓶頸。在高帶寬內(nèi)存(HBM)產(chǎn)能緊張、速標(biāo)成本居高不下的準(zhǔn)化注CD組背景下,行業(yè)開始探索下一代存儲解決方案,英偉HBF(高帶寬閃存)與 CXL(計算快速鏈接)兩大技術(shù)路線逐漸浮出水面。達(dá)押2026 年 4 月,存儲兩大技術(shù)領(lǐng)域接連傳來重磅消息:SK 海力士與閃迪聯(lián)合推動 HBF 標(biāo)準(zhǔn)化進(jìn)程,技術(shù)F加三星發(fā)布性能提升 10 倍的分化 CXL 內(nèi)存系統(tǒng),而英偉達(dá)則明確了短期技術(shù)路線,速標(biāo)選擇繼續(xù)深耕 HBM 并加速布局 AI SSD 與 CXL 生態(tài),準(zhǔn)化注CD組不同廠商的英偉戰(zhàn)略選擇正在重塑 AI 存儲的競爭格局。
HBF 標(biāo)準(zhǔn)化加速落地,達(dá)押瞄準(zhǔn) AI 推理大容量需求
今年 2 月,存儲SK 海力士與閃迪聯(lián)合舉辦 “HBF 規(guī)格標(biāo)準(zhǔn)化聯(lián)盟啟動會”,正式發(fā)布面向 AI 推理時代的下一代存儲器解決方案 HBF 的全球標(biāo)準(zhǔn)化戰(zhàn)略,標(biāo)志著這一新興技術(shù)從概念階段進(jìn)入產(chǎn)業(yè)化推進(jìn)的快車道。作為 3D NAND 閃存與高帶寬堆疊技術(shù)結(jié)合的產(chǎn)物,HBF 被視為解決 AI 系統(tǒng) “內(nèi)存墻” 問題的重要方向,其核心優(yōu)勢在于兼顧大容量與高帶寬,能夠同時替代傳統(tǒng)的 HBM 顯存和 DDR 主存。

根據(jù)聯(lián)盟公布的技術(shù)路線圖,HBF 將采用 TSV(硅通孔)堆疊技術(shù)與 BICS 閃存工藝,單顆 HBF 芯片的最大容量可達(dá) 4096GB,是當(dāng)前主流 HBM3E 內(nèi)存容量的 8 至 16 倍。這種超高容量特性使其特別適合對內(nèi)存容量要求極高的 AI 推理場景,能夠大幅降低大型語言模型部署的硬件成本。閃迪在標(biāo)準(zhǔn)化進(jìn)程中表現(xiàn)最為積極,目前已著手建立完整的 HBF 供應(yīng)鏈,計劃在 2026 年下半年推出首款原型樣品,商業(yè)化量產(chǎn)目標(biāo)提前至 2027 年,比最初公布的時間表提前了半年。
盡管 HBF 的技術(shù)前景被行業(yè)廣泛看好,但其推廣進(jìn)程仍面臨諸多挑戰(zhàn)。作為一種全新的存儲架構(gòu),HBF 需要配套的芯片設(shè)計、主板布線和軟件生態(tài)支持,產(chǎn)業(yè)鏈的成熟需要較長時間。此外,HBF 的延遲性能仍無法與 HBM 相媲美,這也決定了其短期內(nèi)難以進(jìn)入對延遲敏感的 AI 訓(xùn)練市場,主要定位將集中在大規(guī)模 AI 推理和邊緣計算領(lǐng)域。

英偉達(dá)明確技術(shù)路線:短期不采用 HBF,押注 HBM+AI SSD 組合
就在 HBF 標(biāo)準(zhǔn)化加速推進(jìn)的同時,作為 AI 芯片領(lǐng)域的絕對領(lǐng)導(dǎo)者,英偉達(dá)卻傳出了短期內(nèi)不會引入 HBF 技術(shù)的消息。據(jù) Wccftech 報道,英偉達(dá)目前仍將 HBM 作為核心存儲方案,同時計劃通過高性能 AI SSD 和專用軟件平臺來解決內(nèi)存容量不足的問題,這一戰(zhàn)略選擇與英偉達(dá)自身的生態(tài)布局和技術(shù)路線密切相關(guān)。
英偉達(dá)認(rèn)為,通過優(yōu)化現(xiàn)有存儲架構(gòu),同樣能夠?qū)崿F(xiàn)內(nèi)存容量的高效擴(kuò)展,無需引入全新的 HBF 標(biāo)準(zhǔn)。為此,英偉達(dá)正與鎧俠、SK 海力士合作開發(fā)支持 PCIe 7.0 標(biāo)準(zhǔn)的高性能 AI SSD,并同步打造名為 “SCADA(可擴(kuò)展加速數(shù)據(jù)訪問)” 的軟件平臺。該平臺的核心創(chuàng)新在于繞過傳統(tǒng)的 “CPU 讀取 SSD 再傳遞給 GPU” 的數(shù)據(jù)路徑,實(shí)現(xiàn) GPU 對 SSD 的直接訪問,大幅縮短數(shù)據(jù)傳輸延遲,將 AI SSD 的隨機(jī)讀寫性能(IOPS)目標(biāo)鎖定在 100M 級別。這種方案能夠在不改變現(xiàn)有 GPU 硬件架構(gòu)的前提下,有效擴(kuò)展 AI 系統(tǒng)的可用內(nèi)存容量,降低對 HBM 的依賴。

與英偉達(dá)的謹(jǐn)慎態(tài)度不同,谷歌被認(rèn)為是 HBF 技術(shù)的潛在主要客戶。目前谷歌的 TPU 生態(tài)系統(tǒng)正在快速擴(kuò)張,其下一代 TPU 解決方案對大容量存儲有著迫切需求。HBF 既能部分替代 HBM 的作用,又能替代標(biāo)準(zhǔn) DDR 內(nèi)存,能夠幫助谷歌構(gòu)建更具成本優(yōu)勢的 AI 推理集群。谷歌的加入也為 HBF 的商業(yè)化進(jìn)程注入了重要動力,預(yù)計未來將形成英偉達(dá)主導(dǎo)的 HBM+AI SSD 路線與谷歌主導(dǎo)的 HBF 路線并存的局面。
CXL 成后 HBM 時代核心戰(zhàn)場,三星發(fā)布 10 倍性能新系統(tǒng)
在 HBF 之外,CXL 作為一種開放性的互聯(lián)協(xié)議,正成為存儲行業(yè)新一輪競爭的核心領(lǐng)域。CXL 能夠?qū)崿F(xiàn) CPU 與 GPU、FPGA 等加速器之間的高速高效互聯(lián),提供統(tǒng)一的內(nèi)存地址空間和內(nèi)存一致性,允許不同計算設(shè)備共享內(nèi)存資源,從而有效緩解 AI 負(fù)載對內(nèi)存容量和帶寬的壓力。TrendForce 預(yù)測,繼 HBM 之后,CXL 將成為未來 3-5 年存儲行業(yè)增長最快的細(xì)分市場。

三星近期發(fā)布的新一代 CXL 內(nèi)存系統(tǒng) “Pangea v2”,展示了 CXL 技術(shù)的巨大潛力。該系統(tǒng)圍繞 CXL 2.0 標(biāo)準(zhǔn)打造,整合了 22 組 CXL 內(nèi)存模塊,構(gòu)建了統(tǒng)一的共享內(nèi)存資源池,支持多臺服務(wù)器同時接入調(diào)用,整體內(nèi)存容量可達(dá) 5.5TB。實(shí)測數(shù)據(jù)顯示,Pangea v2 的數(shù)據(jù)傳輸性能相比 RDMA 等傳統(tǒng)互聯(lián)方式提升了 10.2 倍,同時將傳統(tǒng)內(nèi)存架構(gòu)長期存在的運(yùn)行瓶頸減少了 96%。目前三星已聯(lián)合 Marvell 和 Liquid AI 展開技術(shù)合作,共同推進(jìn)產(chǎn)品的商業(yè)化落地,并計劃在 2026 年推出適配 CXL 4.0 標(biāo)準(zhǔn)的 “Pangea v3” 系統(tǒng),進(jìn)一步提升性能和容量。

除三星外,全球主要存儲廠商都在加速 CXL 技術(shù)的布局。SK 海力士早在 2022 年便推出了首款 CXL 內(nèi)存模塊,2023 年升級至 CXL 2.0 標(biāo)準(zhǔn),目前正在穩(wěn)步推進(jìn)下一代產(chǎn)品的研發(fā);美光也在 2024 年首次發(fā)布 CXL 內(nèi)存模塊,正式加入這一賽道。而英偉達(dá)今年出貨的 Vera CPU 原生支持 CXL 3.1 標(biāo)準(zhǔn),被業(yè)界視為 CXL 技術(shù)規(guī)模商用的關(guān)鍵節(jié)點(diǎn),將極大推動 CXL 生態(tài)的成熟與普及。
總體來看,當(dāng)前 AI 存儲技術(shù)正處于多元化發(fā)展的關(guān)鍵時期。HBM 仍將是未來 2-3 年 AI 訓(xùn)練和高端推理市場的主流存儲方案,而 HBF 和 CXL 則分別從不同方向探索后 HBM 時代的技術(shù)路徑。HBF 憑借超高容量優(yōu)勢瞄準(zhǔn) 2027 年后的大規(guī)模 AI 推理市場,CXL 則通過內(nèi)存資源池化技術(shù)解決當(dāng)前系統(tǒng)的內(nèi)存擴(kuò)展難題。不同廠商基于自身生態(tài)優(yōu)勢選擇了不同的技術(shù)路線,這種多元化的競爭格局將加速 AI 存儲技術(shù)的創(chuàng)新迭代,為下一代更強(qiáng)大的 AI 系統(tǒng)奠定堅實(shí)的存儲基礎(chǔ)。