HBM 後 AI 記憶體瓶頸是 HBF?圖靈獎得主 David Patterson:推論將重新定義儲存架構

Neo
分享
HBM 後 AI 記憶體瓶頸是 HBF?圖靈獎得主 David Patterson:推論將重新定義儲存架構

AI 晶片競賽過去兩年幾乎都圍繞在 HBM,但隨著 AI 應用從模型訓練走向大規模推論,下一個供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高頻寬快閃記憶體)。圖靈獎得主、UC Berkeley 教授 David Patterson 於 4 月 30 日在美國舊金山表示,他認為,HBF 很可能成為下一個需求快速上升、甚至形成新瓶頸的關鍵記憶體技術。

(輝達 Vera Rubin 有何改變?解析記憶體戰國時代:SK 海力士、三星、美光、SanDisk)

圖靈獎得主 David Patterson 為何看好 HBF

AI 記憶體的討論幾乎都圍繞在 HBM(高頻寬記憶體)展開,但隨著 AI 應用從模型訓練走向大規模推論,下一個供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高頻寬快閃記憶體)。

廣告 - 內文未完請往下捲動

Patterson 是電腦科學界重量級人物,被視為 RISC 架構的重要設計者之一。他在談到 HBM 之後的下一階段時指出,雖然 HBF 仍有不少技術挑戰需要解決,但 SK 海力士與 SanDisk 等企業正在推動的 HBF,具備「以較低功耗提供大容量」的特性,未來 AI 系統的核心變數,將不只是算力,而是資料能否被有效儲存、調度與供應。

HBF 是什麼?把 NAND Flash 疊起來,不是取代 HBM,而是分工

HBF 與 HBM 最大差異在於底層記憶體材料不同。HBM 是將 DRAM 垂直堆疊,用來提供 GPU、AI 加速器所需的高頻寬資料存取能力,主要負責「快速餵資料給運算單元」。HBF 則是將非揮發性記憶體 NAND Flash 進行堆疊,核心優勢不是極致速度,而是以較低成本、較低功耗提供更大的資料容量。

換句話說,HBM 解決的是 AI 運算過程中「速度」問題,HBF 解決的是 AI 系統越來越龐大的「容量」問題。這也是為什麼 HBF 並不是單純取代 HBM,而是與 HBM 形成新的記憶體分工。HBM 負責即時、高速的資料交換;HBF 則承擔大規模中間資料、上下文資料與推論過程中反覆調用資料的儲存需求。

AI 推論市場擴大,讓 HBF 需求浮上檯面

HBF 之所以在 2026 年受到更多關注,關鍵在於 AI 市場重心正從訓練逐步走向推論。AI 訓練是把大量資料餵給模型,讓模型學會參數與規律;AI 推論則是模型被訓練完成後,實際根據使用者輸入產生答案、執行任務、記住前後文並持續判斷的過程。

在推論場景中,AI 不只是一次性回答問題,而是要保留先前對話、工作脈絡、判斷結果、工具調用紀錄,甚至跨任務的中間資料。這些資料量龐大,而且需要被反覆讀取與更新。

問題在於,這些資料若全部放進 HBM,成本太高,容量也不現實。HBM 適合處理立即需要的高速資料,但不適合承擔所有推論過程中產生的上下文與中間狀態資料。當 AI Agent、長上下文模型、多模態推論與企業級 AI 工作流普及後,系統需要的不只是更快的記憶體,而是更大的高速資料池。這正是 HBF 被看好的原因。

SK 海力士與 SNDK 已推動標準化,2038 年 HBF 需求或超越 HBM

為了追求頻寬,SK 海力士與 SanDisk 合作開發 HBF。這是一種類似 HBM 的 3D 堆疊技術,但使用 NAND 晶圓,旨在提供比傳統 SSD 快數倍的吞吐量,專門服務於 AI 推論 。

韓國 KAIST 電機電子工程學系教授金正浩也曾在 2 月的 HBF 技術說明會中指出,PC 時代的核心是 CPU,智慧手機時代的核心是低功耗,而 AI 時代的核心則是記憶體。他將 HBM 與 HBF 的角色分得很清楚:決定速度的是 HBM,決定容量的是 HBF。金正浩更預測,自 2038 年開始,HBF 的需求可能超越 HBM。

這個判斷背後的邏輯是,AI 推論市場越大,模型所需處理的即時上下文、歷史資料與任務狀態就越龐大。若只靠 HBM 擴充,不但成本高昂,也會讓整體系統功耗與封裝壓力持續上升。HBF 若能在頻寬、封裝、耐用性與標準化上取得突破,就可能成為 AI 資料中心的新一代關鍵記憶體層。

從 HBM 到 HBF,AI 競賽從「算得快」走向「記得住、調得動」

過去市場談 AI 半導體,焦點多放在 GPU、先進製程與 HBM 供應。尤其在 Nvidia AI 伺服器需求暴增後,HBM 一度成為判斷 SK 海力士、三星、美光等記憶體廠競爭力的核心指標。但 Patterson 的說法提醒市場,AI 基礎設施的瓶頸正在變得更複雜。

當 AI 還處於大模型訓練競賽階段,重點是用更高頻寬的記憶體餵飽 GPU;但當 AI 進入大規模推論與 Agent 應用階段,問題會變成:模型如何長時間維持上下文?如何低成本保存任務狀態?如何讓資料在 GPU、HBM、SSD、Flash 與網路儲存之間更有效率地流動?

因此,下一階段的 AI 記憶體競賽,可能不再只是 HBM 產能之爭,而是整個記憶體階層的重組。HBM 仍然重要,因為它決定 AI 晶片能否高速運算;但 HBF 的出現,代表 AI 系統開始需要一種介於傳統儲存與高頻寬記憶體之間的新型資料層。它不一定最快,卻可能在容量、功耗與成本之間找到新的平衡。

這也意味著,AI 供應鏈的下一個關鍵詞,可能將從「高頻寬記憶體」延伸到「高頻寬快閃記憶體」。HBM 解決 AI 的即時運算瓶頸,而 HBF 則可能解決推論時代更龐大的資料記憶瓶頸。

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。