HBM 後 AI 記憶體瓶頸是 HBF?圖靈獎得主 David Patterson:推論將重新定義儲存架構
AI 晶片競賽過去兩年幾乎都圍繞在 HBM,但隨著 AI 應用從模型訓練走向大規模推論,下一個供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高頻寬快閃記憶體)。圖靈獎得主、UC Berkeley 教授 David Patterson 於 4 月 30 日在美國舊金山表示,他認為,HBF 很可能成為下一個需求快速上升、甚至形成新瓶頸的關鍵記憶體技術。
(輝達 Vera Rubin 有何改變?解析記憶體戰國時代:SK 海力士、三星、美光、SanDisk)
圖靈獎得主 David Patterson 為何看好 HBF
AI 記憶體的討論幾乎都圍繞在 HBM(高頻寬記憶體)展開,但隨著 AI 應用從模型訓練走向大規模推論,下一個供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高頻寬快閃記憶體)。
Patterson 是電腦科學界重量級人物,被視為 RISC 架構的重要設計者之一。他在談到 HBM 之後的下一階段時指出,雖然 HBF 仍有不少技術挑戰需要解決,但 SK 海力士與 SanDisk 等企業正在推動的 HBF,具備「以較低功耗提供大容量」的特性,未來 AI 系統的核心變數,將不只是算力,而是資料能否被有效儲存、調度與供應。
HBF 是什麼?把 NAND Flash 疊起來,不是取代 HBM,而是分工
HBF 與 HBM 最大差異在於底層記憶體材料不同。HBM 是將 DRAM 垂直堆疊,用來提供 GPU、AI 加速器所需的高頻寬資料存取能力,主要負責「快速餵資料給運算單元」。HBF 則是將非揮發性記憶體 NAND Flash 進行堆疊,核心優勢不是極致速度,而是以較低成本、較低功耗提供更大的資料容量。
換句話說,HBM 解決的是 AI 運算過程中「速度」問題,HBF 解決的是 AI 系統越來越龐大的「容量」問題。這也是為什麼 HBF 並不是單純取代 HBM,而是與 HBM 形成新的記憶體分工。HBM 負責即時、高速的資料交換;HBF 則承擔大規模中間資料、上下文資料與推論過程中反覆調用資料的儲存需求。
AI 推論市場擴大,讓 HBF 需求浮上檯面
HBF 之所以在 2026 年受到更多關注,關鍵在於 AI 市場重心正從訓練逐步走向推論。AI 訓練是把大量資料餵給模型,讓模型學會參數與規律;AI 推論則是模型被訓練完成後,實際根據使用者輸入產生答案、執行任務、記住前後文並持續判斷的過程。
在推論場景中,AI 不只是一次性回答問題,而是要保留先前對話、工作脈絡、判斷結果、工具調用紀錄,甚至跨任務的中間資料。這些資料量龐大,而且需要被反覆讀取與更新。
問題在於,這些資料若全部放進 HBM,成本太高,容量也不現實。HBM 適合處理立即需要的高速資料,但不適合承擔所有推論過程中產生的上下文與中間狀態資料。當 AI Agent、長上下文模型、多模態推論與企業級 AI 工作流普及後,系統需要的不只是更快的記憶體,而是更大的高速資料池。這正是 HBF 被看好的原因。
SK 海力士與 SNDK 已推動標準化,2038 年 HBF 需求或超越 HBM
為了追求頻寬,SK 海力士與 SanDisk 合作開發 HBF。這是一種類似 HBM 的 3D 堆疊技術,但使用 NAND 晶圓,旨在提供比傳統 SSD 快數倍的吞吐量,專門服務於 AI 推論 。
韓國 KAIST 電機電子工程學系教授金正浩也曾在 2 月的 HBF 技術說明會中指出,PC 時代的核心是 CPU,智慧手機時代的核心是低功耗,而 AI 時代的核心則是記憶體。他將 HBM 與 HBF 的角色分得很清楚:決定速度的是 HBM,決定容量的是 HBF。金正浩更預測,自 2038 年開始,HBF 的需求可能超越 HBM。
這個判斷背後的邏輯是,AI 推論市場越大,模型所需處理的即時上下文、歷史資料與任務狀態就越龐大。若只靠 HBM 擴充,不但成本高昂,也會讓整體系統功耗與封裝壓力持續上升。HBF 若能在頻寬、封裝、耐用性與標準化上取得突破,就可能成為 AI 資料中心的新一代關鍵記憶體層。
從 HBM 到 HBF,AI 競賽從「算得快」走向「記得住、調得動」
過去市場談 AI 半導體,焦點多放在 GPU、先進製程與 HBM 供應。尤其在 Nvidia AI 伺服器需求暴增後,HBM 一度成為判斷 SK 海力士、三星、美光等記憶體廠競爭力的核心指標。但 Patterson 的說法提醒市場,AI 基礎設施的瓶頸正在變得更複雜。
當 AI 還處於大模型訓練競賽階段,重點是用更高頻寬的記憶體餵飽 GPU;但當 AI 進入大規模推論與 Agent 應用階段,問題會變成:模型如何長時間維持上下文?如何低成本保存任務狀態?如何讓資料在 GPU、HBM、SSD、Flash 與網路儲存之間更有效率地流動?
因此,下一階段的 AI 記憶體競賽,可能不再只是 HBM 產能之爭,而是整個記憶體階層的重組。HBM 仍然重要,因為它決定 AI 晶片能否高速運算;但 HBF 的出現,代表 AI 系統開始需要一種介於傳統儲存與高頻寬記憶體之間的新型資料層。它不一定最快,卻可能在容量、功耗與成本之間找到新的平衡。
這也意味著,AI 供應鏈的下一個關鍵詞,可能將從「高頻寬記憶體」延伸到「高頻寬快閃記憶體」。HBM 解決 AI 的即時運算瓶頸,而 HBF 則可能解決推論時代更龐大的資料記憶瓶頸。
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。

