《All-In Podcast》AI 戰場轉向推理,矽晶片戰重啟、小新創也能出頭
在最新一集《All-In Podcast》中,四位主持人揭露,OpenAI 已與美國 AI 晶片新創 Cerebras 達成重大合作協議,未來三年內將向 Cerebras 採購最高達 750 兆瓦的運算能力,整體規模上看百億美元等級。這筆交易的重點不在模型訓練,而是聚焦在 AI 商業化關鍵環節:推理 (Inference),也就是模型對外提供即時回應與服務所需的算力。四位指出,這象徵 AI 產業競爭正逐步從「誰訓練最大模型」,轉向「誰能提供最快、最穩定、最具成本效率的推理能力」。
三年 750 兆瓦算力合約,OpenAI 為推論布局
節目中提到,OpenAI 已承諾在三年內,向 Cerebras 採購最多 750 兆瓦的運算資源,等同於一座大型發電廠規模的電力,專門支援 AI 系統在實際應用階段的運作。
主持群強調,這筆合作並非著眼於訓練新模型,而是用於支撐 ChatGPT、API 服務與各類 AI 應用的即時推理需求。隨著用戶數與應用場景快速擴大,推理所需的算力,將遠高於模型訓練階段。
Cerebras 技術路線不同,把整片晶圓做成一顆晶片
節目來賓介紹,Cerebras 從創立之初就選擇與主流晶片設計完全不同的路線。
一般晶片製程,是在一片晶圓上切割出許多小晶片,再分別封裝使用;Cerebras 則反其道而行,直接將整片晶圓設計成一顆超大晶片,並在上面整合大量運算單元與記憶體。
這種設計,讓運算與記憶體之間的物理距離大幅縮短,資料不必在多顆晶片之間來回傳輸,系統複雜度降低,也有助於提升整體運算效率。

Cerebras 主打低延遲,推理場景重視速度
節目中指出,推理階段的關鍵指標,在於回應速度、延遲表現與系統穩定性。使用者送出指令後,模型必須即時完成計算並回傳結果,任何延遲都會直接影響使用體驗。
由於 Cerebras 將大量算力與記憶體集中在單一超大晶片上,資料在極短距離內流動,特別適合需要高頻率、低延遲回應的推理場景。
節目提到,最早大規模採用 Cerebras 系統的,是中東地區的機構,包括阿聯酋相關單位;實際部署後,在特定推論任務上,表現出明顯的速度優勢。
OpenAI 分散供應鏈,避免單一廠商風險
主持群指出,OpenAI 近年明確採取「多供應商策略」,不再完全依賴單一晶片廠。
目前 OpenAI 已大量使用輝達 (NVIDIA) 算力,同時也與超微 (AMD) 合作,現在再引入 Cerebras,形成多條算力供應路線。目的在於分散風險,避免因單一供應商產能、價格或政策變化,影響整體服務穩定性。
節目形容,這是一種算力供應鏈「去集中化」的布局,確保任何一條路徑出現問題時,仍能維持服務不中斷。
矽晶片產業再洗牌,小新創也有機會
主持群認為,這筆合作不只是 OpenAI 的策略調整,也象徵 AI 晶片產業正進入新一輪競爭期。
未來 10 至 20 年,可能重演早年個人電腦產業百家爭鳴的局面,不只大型晶片公司,許多新創團隊也可能在推論晶片、專用算力、垂直應用晶片領域找到立足點。
在 AI 商業化需求持續擴大的情況下,只要技術方向正確,小型新創仍有機會在產業中快速崛起。
產業重心轉移,從訓練競賽走向推論競爭
節目最後總結,AI 發展初期,市場焦點放在誰能訓練出最大、最強的模型;但隨著應用落地,真正決定勝負的,將是誰能以更快速度、更低成本、更高穩定度,提供推論服務。
OpenAI 與 Cerebras 的合作,被視為這一產業轉向的重要指標,也顯示 AI 競爭正逐步從「訓練規模」轉向「推理效率」。
(《All-In Podcast》預測 2026:AI、銅與電力成全球新經濟主軸)
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。

