輝達 Vera Rubin 引爆記憶體需求:解析 SK 海力士、三星、美光、SanDisk 優缺點

Neo
分享
輝達 Vera Rubin 引爆記憶體需求:解析 SK 海力士、三星、美光、SanDisk 優缺點

2026 年 CES 消費電子展,輝達執行長黃仁勳正式宣佈 Vera Rubin 投入量產,標誌著人工智慧(AI)發展史上的一個關鍵轉折點:從以模型訓練(Training)為核心的生成式 AI 初期,正式邁入以代理型 AI(Agentic AI)與大規模推論(Inference)為主導的時代。

(黃仁勳 CES 定調 2026:Vera Rubin 全面量產、AI 自駕車 Q1 上市,關鍵製程來自台積電)

本報告將深入剖析這一技術轉折如何重塑資料中心的硬體層級,特別是 G3.5 儲存層級與推論上下文記憶體儲存平台(ICMS)。在此背景下,全球四大記憶體與儲存巨頭:SK海力士(SK Hynix)、三星電子(Samsung Electronics)、美光科技(Micron Technology)與 SanDisk 正面臨著前所未有的機遇與挑戰。

廣告 - 內文未完請往下捲動

HBM、DRAM、NAND 是什麼?記憶體名詞解析

在進入正式內容前,先用淺顯的描述來進行名詞補充:

白話文解釋記憶體名詞:HBM(包含 HBM3E、HBM4、HBM5)

HBM 全名 High Bandwidth Memory (高頻寬記憶體)。可以想成:把很多層 DRAM 晶片像千層蛋糕一樣疊起來,再用非常多又粗的高速公路接到 GPU,傳資料超快。

  • HBM3E:目前主力,用在最新一代 GPU 上,速度快、功耗也壓得不錯。
  • HBM4:下一代,給像 Vera Rubin 這種更兇猛的 GPU 用,頻寬更高、容量更大。
  • HBM5:再下一代(規劃中),會再拉高速度與容量,對未來更大模型準備。

Rubin GPU 旁邊會塞很多顆 HBM 堆疊,讓 GPU 能以超高速拿資料。AI 訓練、推論的核心算力全靠 HBM 供應資料,是這波 AI 伺服器供應緊缺的最大明星,廠商把大量產能都轉去做 HBM,導致其他記憶體供應吃緊。在 Vera Rubin 時代,HBM 是所有零件中最關鍵的元件。

白話文解釋記憶體名詞:SSD

SSD 就像一個超大的 USB 隨身碟,用來長期存資料,不會因為關機就忘記。電腦裡放檔案、影片、遊戲,就是存在 SSD(或傳統硬碟)。在 Vera Rubin 時代為了讓 AI 聊天機器人記住很多很多文字、對話歷史和知識,Vera Rubin 要接上非常多 SSD,當作超大資料圖書館。Citi 估算,一台 Vera Rubin 伺服器要接大約 1,152TB(也就是 1,152 個 1TB)這麼多的 SSD,才能讓新的 ICMS 系統運作。

以前 SSD 比較像資料倉庫配角,現在在 ICMS/長上下文推論裡變成很重要的角色。

白話文解釋記憶體名詞:NAND

SSD 裡面真正存資料的材料叫 NAND 快閃記憶體。可以想成:SSD 是書櫃,NAND 是一塊一塊的書本頁面。Vera Rubin 的 ICMS 要用很多 SSD,而 SSD 裡就是堆滿 NAND 晶片,所以 AI 要的是很多很多 NAND。當 AI 模型越來越大、對話記憶越來越長,就需要更多 NAND 來放這些文字和中間結果。

白話文解釋記憶體名詞:DRAM

DRAM 就像短期記憶白板,電腦運算時先把要算的東西寫在 DRAM,上完課(關機)白板就擦掉。速度比 SSD 快很多,但一關機就全忘。在 Vera Rubin 給 CPU / GPU 當一般運算時的工作區。不直接存很久的對話或超大模型,但負責支撐系統運作。不過因為廠商把產能移去做 HBM,結果一般 DRAM 供應變少,價格猛漲、甚至缺貨。

白話文解釋記憶體名詞:LPDDR5X / DDR5

  • DDR5:伺服器與桌機裡常用的主記憶體,比舊的 DDR4 更快。
  • LPDDR5X:給行動裝置、或者高密度 CPU 模組用的省電版本,可以想像是「省電型的 DRAM」。

Rubin CPU 這種處理器,需要很多 LPDDR5X 或 DDR5 當系統記憶體,處理控制、排程、系統任務。它們不會像 HBM 那樣直接綁在 GPU 上,但也是整個 AI 伺服器穩定運作的基礎。由於產能被 HBM 吸走,一般 DDR5 / LPDDR5X 供應變緊、價格上升。

白話文解釋記憶體名詞:High Bandwidth Flash(HBF)

可以把 HBF 想成速度被強化過的 NAND,目標是讓 Flash(快閃記憶體)不再只是慢慢存資料,而是變得更快、更像記憶體來用。比起一般 SSD,它更強調「高吞吐量、低延遲」,好讓 AI 在推論時可以比較快地讀寫大量上下文。

在 Vera Rubin 裡當 ICMS 的核心之一:把大量 KV Cache、長上下文資料放在這種高速 Flash 上,用網路(RDMA 等)讓 GPU 以接近內存的速度取用。這就是 G3.5 層概念。把 Flash 從只有存檔提升成快得可以參與運算流程的外部記憶。

Vera Rubin世代:硬體架構的根本性重構

極致協同設計(Extreme Co-design)與機櫃級運算

在 CES 2026上,NVIDIA 執行長黃仁勳的演講揭示了一個核心理念:在 Rubin 世代,運算的單位不再是單個 GPU 或伺服器,而是整個資料中心機櫃。Rubin 平台由六款核心晶片組成:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 Ethernet Switch 。

這種被稱為極致協同設計的策略,旨在消除晶片間的通訊瓶頸,將 Vera Rubin NVL72 機櫃打造成一個擁有 3.6 ExaFLOPS 推論算力與 75TB 高速記憶體的單一巨型電腦 。

這種架構的演進並非單純的效能堆疊,而是為了應對 AI 工作負載的本質改變。從 Blackwell 到 Rubin,AI 模型已從單純的問答機器演化為能夠執行多步驟推理、長期記憶檢索與工具使用的智慧代理(Agents)。這類工作負載要求硬體不僅要具備高吞吐量,還必須具備極低的延遲與海量的上下文(Context)保留能力 。

收購 Groq 與推論翻轉:防禦性吞併與 ASIC 時代的開端

NVIDIA 在 2025 年底以 200 億美元人才併購與技術授權的形式吸納 AI 晶片新創公司 Groq,Groq 的核心技術 LPU(語言處理單元)架構,本質上是一種針對 Transformer 模型極度優化的 ASIC。與依賴 HBM(高頻寬記憶體)的傳統 GPU 不同,Groq 採用片上 SRAM(靜態隨機存取記憶體)與編譯器優先的設計。

在即時互動場景中,這種架構能提供比傳統 GPU 快 10 倍的代幣生成速度,且能效高出 10 倍 。NVIDIA 想補齊低延遲推論(Groq LPU 擅長)與 CUDA 生態結合。Google (TPU)、Amazon (Inferentia) 等雲端巨頭早已透過自研 ASIC 證明了專用晶片在推論成本上的巨大優勢,NVIDIA 必須透過 Groq 的技術來防禦。

上下文牆(The Context Wall)難題

在長上下文(Long-context)推論中,Key-Value (KV) Cache 是 AI 模型記住對話歷史的機制。隨著上下文窗口擴展至百萬級Token,KV Cache 的體積呈線性增長,迅速耗盡昂貴且容量有限的 GPU HBM (G1)。當 HBM 滿載,數據會被逐出至系統 DRAM (G2) 或本地 SSD (G3)。這導致了 KV Cache 危機:GPU 經常為了等待歷史數據而空轉。

G3.5 層級:推論上下文記憶體儲存平台(ICMS)

在 Vera Rubin 架構中,對記憶體產業最具顛覆性、影響最深遠的變革,是 G3.5 記憶體層級,即推論上下文記憶體儲存平台 (ICMS, Inference Context Memory Storage) 的誕生。這項創新不僅是架構的升級,更標誌著上下文感知(Context-Aware)運算時代的來臨。

ICMS 利用 BlueField-4 DPU 與 Spectrum-X 乙太網路,在機櫃(Pod)層級建立了一個共享的、基於快閃記憶體(Flash)的緩衝池。這個 G3.5 層級位於 DRAM 與傳統儲存之間,透過 RDMA(遠端直接記憶體存取)技術,讓 GPU 能以接近本地記憶體的速度存取遠端 Flash 中的 KV Cache 1。

強制催生新技術標準 (HBF & AI-SSD)

為了讓 NAND Flash 能夠勝任準記憶體的高強度工作,產業被迫加速技術迭代,這改變了主要記憶體廠的技術路徑圖。

  • High Bandwidth Flash (HBF): 為了追求頻寬,SK 海力士與 SanDisk 合作開發 HBF。這是一種類似 HBM 的 3D 堆疊技術,但使用 NAND 晶圓,旨在提供比傳統 SSD 快數倍的吞吐量,專門服務於 AI 推論 。
  • AI 專用 SSD (AI-NP): SK 海力士正與 NVIDIA 緊密合作,開發能達到 1 億 IOPS 的 AI-NP SSD。這種性能是現有頂級 SSD 的 100 倍,專門為了滿足 ICMS 對隨機讀取速度的極端苛求,確保數據能即時餵給 GPU 。

G3.5 ICMS 層級是將 AI 價值鏈從昂貴的 HBM 向下延伸至 NAND Flash 的關鍵橋樑。它解決了 AI Agent 需要無限記憶來處理複雜任務的痛點,將 NAND 產業從週期性的儲存商品,轉變為 AI 運算基礎設施中不可或缺的核心戰略資源。

Rubin NVL72 的儲存通膨效應

根據 Citi 與其他市場分析機構的拆解,Vera Rubin 架構中 ICMS 對 NAND 的需求是爆炸性的。除了標準的儲存外,BlueField-4 驅動的 ICMS 為每個 GPU 額外增加了約 16TB 的高速 NAND 快閃記憶體。對於一個滿載 72 顆 GPU 的 NVL72 機櫃而言,這意味著額外增加了 1,152TB(約1.15PB)的 NAND 需求 。

如果 2026 年全球部署 10 萬個此類機櫃,將產生超過 115 Exabytes (EB) 的額外 NAND 需求,約佔 2025 年全球 NAND 總供應量的 12% 。這種需求不僅量大,且對性能要求極高,這直接導致了市場對企業級 SSD 供應短缺的恐慌,開啟一個由賣方主導的超級循環 。

這場架構革命將記憶體市場推向了「三重超級循環」(DRAM 價漲、NAND 缺貨、HBM 售罄)。以下是四大廠的深度競爭力分析:

SK 海力士 (SK Hynix):AI 架構的設計師

地位

HBM 市場絕對霸主 (HBM3/3E 時代市占率 5~60%),NVIDIA 核心盟友。

優勢

  • HBM4 壟斷:券商推估囊括 Vera Rubin 平台 HBM4 初期訂單的 70% 以上,且產能已宣佈 2026 年全數售罄。
  • HBF 標準制定:與 SanDisk 合作推動 High Bandwidth Flash (HBF),試圖將 NAND 提升至準記憶體層級。
  • AI-NP SSD:開發專為 ICMS 設計的 1 億 IOPS 超高性能 SSD。

劣勢

SK hynix 現在吃到 AI 超級循環,HBM3E / HBM4 幾乎滿載,2026 年自己也在展望裡承認:後面可能面臨價格修正與競爭加劇風險。多家機構點名一旦 2026 之後 HBM 供給擴張、價格轉跌,對 HBM 依賴最高的就是 SK hynix,獲利下修風險最大。

三星電子 (Samsung):帝國的反擊與產能優勢

地位

全方位解決方案提供者,產能怪獸。

優勢

  • Turnkey HBM4:提供「記憶體+邏輯代工+封裝」一站式服務的廠商,對 Google、Amazon 等自研晶片客戶極具吸引力。
  • G3.5 直接受惠:作為全球最大 NAND 製造商,擁有最強大的企業級 SSD 與 CXL 記憶體(PBSSD)供應能力,能同時滿足 HBM 與海量存儲需求。

劣勢

HBM 技術起步較晚,需在 Rubin 世代重建客戶信心;NAND 雖有量但定價權不如 HBM 強勢。

美光科技 (Micron):效率與地緣政治受益者

地位

美國主權 AI 首選,HBM+NAND 雙輪驅動。

優勢

  • 雙重受惠:唯一同時擁有 HBM3E/4 產能與先進企業級 SSD 的美國廠商。能同時吃到 Rubin GPU 記憶體與 ICMS 儲存層的紅利。
  • 能效領先:HBM 產品宣稱比對手節能 30%,契合 AI 資料中心對 TCO 的極致要求。
  • 地緣政治紅利:作為唯一美國本土製造商,是北美主權 AI 雲端的首選。

劣勢

總產能規模小於韓系大廠,需依賴技術溢價維持高毛利,無法打價格戰。

SanDisk:從儲存到運算的價值重估

地位

G3.5 層級的最大純粹受惠者,轉型 AI 基礎設施股。

優勢

  • 最純粹的 G3.5 概念股:每套 Rubin 系統 1,152TB 的 NAND 需求是 SanDisk 的純增量。其 Stargate 企業級 SSD 已獲超大規模客戶認證。
  • 業務轉型:從 Western Digital 分拆後,戰略完全轉向數據中心(營收年增26%),擺脫消費級包袱。
  • 定價爆發力:在供應短缺下,企業級 NAND 價格可能還會翻倍,SanDisk 擁有極高利潤彈性。

劣勢

缺乏自有晶圓廠,走 Fabless 模式,依賴代工,產能鎖定能力弱於 IDM 廠。

2026 前瞻分析:記憶體賣方市場確立

Nomura 與 Citi 一致預測,2026 年將面臨嚴重供需失衡。DRAM 營收預計年增 51%,NAND 晶圓合約價可能翻倍。由於潔淨室(Cleanroom)短缺及 HBM 對晶圓產能的消耗(HBM 消耗量是 DRAM 的 3 倍),供應緊張將持續至 2027 年中。在這場價值 10 兆美元的產業現代化浪潮中,Vera Rubin 與 ICMS 平台的出現,使記憶體廠商從配角躍升為主角。

展望 2026~2028 年,記憶體賣方市場除了來自 HBM 擴產受限與 ICMS 對企業級 SSD 的擠壓,還可能出現另一個加速器:HBF(NAND 堆疊式高頻寬快閃)商用化時間表前移。學界與產業界近期的共識是,由於 HBF 在製程與設計上可部分沿用 HBM 時代累積的堆疊與封裝基礎,導入節奏有望較 HBM 更快,並在 2027 年前後開始進入主要加速器平台的整合期。

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。