方舟《Big Ideas 2026》點名四大企業!GPU 與 ASIC 並存的 AI 雲端新格局成形
在方舟投資 (ARK Invest) 最新發布的《Big Ideas 2026》研究報告中,AI 被定位為推動科技加速的核心動力。報告在 AI 基礎設施章節指出,AI 推論成本在短時間內大幅下降,反而引爆運算需求,成為雲端架構轉變的關鍵轉折。方舟認為,這項變化正推動 AI 從實驗性技術,走向日常可用、可規模化的基礎設施,並點名四大企業,分別站上 GPU 與 ASIC 兩條 AI 運算路線的關鍵位置,成為新一代 AI 雲端架構的核心角色。
推論成本急速下滑,AI 使用量同步暴增
方舟指出,AI 推理成本在不到一年的時間內,已出現超過 99% 的跌幅。隨著模型效率提升與硬體進步,單位運算所需成本快速下降,使 AI 不再只是少數研究單位或大型企業的專利。
報告指出,當成本門檻快速降低後,開發者、企業與消費端對 AI 的實際使用量迅速放大,token 呼叫次數呈現爆炸性成長。這代表 AI 的角色,正從「測試用途」轉向「日常可用工具」,開始進入規模化應用階段。從下圖可得知:
「在模型效能相近的情況下,AI 推論成本一年內暴跌逾 99%,每百萬 tokens 的價格快速降至接近零。成本崩跌同步引爆使用量,推理 token 數在一年內數十倍成長,顯示 AI 正走向大規模、日常化的基礎運算。」

資料中心投資加速,AI 成為雲端建設主體
隨著 AI 使用量暴增,方舟指出,資料中心的投資結構也隨之出現明顯變化。相較於過去以通用運算為主的雲端架構,新的投資重心正快速轉向「為 AI 設計的運算系統」。
方舟補充,AI 已不再只是雲端上的一項服務,而是驅動整個資料中心升級的核心需求。這也使得雲端資本支出加速,AI 從實驗性專案,正式成為雲端基礎建設的主體之一。
高階運算仍由 GPU 主導,輝達站穩核心位置
在現階段的 AI 運算架構中,方舟指出,高階大型模型的訓練與推論,仍然高度依賴 GPU 系統。其中,輝達 (NVIDIA) 被描述為目前高階 AI 運算的主要供應者。
方舟提到,輝達推出的 Grace Blackwell 系列,被定位為「機架級」(Rack-Scale) 的系統方案,能夠整合運算、記憶體與網路架構,專門對應大型 AI 模型在資料中心中的運行需求,成為當前高效能 AI 訓練與推論的重要基礎。
運算需求分化,ASIC 與替代方案開始補位
不過方舟也表示,隨著 AI 應用從訓練走向大量推論,不同運算需求開始出現明顯分化。針對小模型或特定推論場景,市場對更具成本效率的解決方案需求明顯提高。
其中也明確點名超微 (AMD) 在部分小模型與推論工作負載中,競爭力正逐步提升,並被視為輝達在部分 AI 運算場景下的重要競爭者之一。同時,方舟也在提到 Alphabet 透過自研的 Google TPU,被納入 AI 加速器 (ASIC) 競爭格局之中,在自有雲端與 AI 工作負載上扮演關鍵角色。從下圖可得知:
「輝達在大型模型與機架級系統上仍具優勢,但在小模型推論場景中,AMD 與 Alphabet 已逐步追近。整體趨勢是 AI 運算依模型規模分流,大模型偏向高階 GPU,小模型與成本導向場景則轉向 AMD 與 ASIC。」

雲端業者自研晶片,AI 專用運算加速成形
方舟進一步指出,為了降低 AI 的長期運算成本,雲端服務商正加速投入自研晶片。報告中特別點名亞馬遜 (Amazon) 旗下的 Annapurna Labs,作為 ASIC 設計的代表案例之一。
方舟表示,這類客製化晶片的核心目標,並非取代所有 GPU,而是針對特定 AI 工作負載,提供更低單位成本的運算選項,使雲端能在大規模 AI 服務下維持經濟可行性。
四大企業分居關鍵節點,GPU 與 ASIC 並存成新常態
隨著 AI 推論成本快速下降、需求同步爆發,雲端運算的角色已經發生結構性轉變。
方舟表示,未來雲端不再只是通用運算的平台,而是將逐步演變為以 AI 為核心設計的專用運算環境。在這樣的架構下,由輝達代表的 GPU 路線,與由 AMD、Alphabet、Amazon 所代表的 ASIC 與替代方案,並非彼此取代,而是將依不同 AI 工作負載長期並存,共同撐起 AI 作為下一代基礎設施的核心地位。
(美晶片投資專家:Google TPU 暫居上風,但 NVIDIA GPU 更具長期優勢)
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。


