矽谷 AI Agent 現實:Token 大量浪費、系統整合「極度混亂」,黃仁勳「下一個 ChatGPT」預測待驗證
根據 CNBC 深度報導,在矽谷本週兩場封閉會議中,多位 AI 新創 CEO 與工程師直言當前 AI agent 規模化部署面臨「token 大量浪費」與「系統之間極度混亂」兩大結構性問題。這份現場紀錄與 Nvidia 執行長黃仁勳 3 月稱 AI agent 為「下一個 ChatGPT」的樂觀預期形成鮮明對比,顯示這條賽道的實際瓶頸不在算力,而在決策設計、token 效率與多系統整合。
最大問題是把所有事情丟給 LLM
AI 新創 Meibel 執行長 Kevin McGrath 在會議上指出:「我們現在處理的最大問題,是誤以為所有事情都需要被大型語言模型處理 — 把所有 token 和所有錢都丟給一個 AI bot,它就會燒掉幾百萬個 token。」他強調企業在設計 agent 工作流時,必須更清楚判斷哪些任務真正需要 LLM、哪些用更便宜的規則式邏輯或傳統機器學習即可完成。
這個觀察呼應 Anthropic Claude 企業版轉向按量計費之後的市場反應 — 當 token 消耗直接轉為成本,「盲目丟給 agent」的開發模式立刻顯現財務壓力。Meibel 的觀點代表一群反 hype 的工程實務派:agent 架構的藝術在於約束,而非放任。
多 agent 協作系統互相依賴形成混亂
CNBC 報導中另一個反覆出現的關鍵字是「chaotic」。當企業同時跑多個 AI agent — 例如一個處理客服、一個處理排程、一個處理財務 — agent 之間的訊息傳遞、狀態一致性、錯誤回復都會相互影響,任何一個 agent 的行為失常會連鎖擴散。Karpathy 本週也提到他個人同時跑 10–20 個 agent 的工作流,但承認 code review 與 PR 流程成為新瓶頸。
這類多 agent 系統的混亂,本質是分散式系統的老問題在 LLM 時代的重演:沒有明確的 SLA、沒有事務邊界、沒有失敗重試語意。Anthropic、OpenAI 雖然推出 MCP、Agent SDK 等協議層,但在企業導入實戰中,標準化仍遠遠落後於 agent 數量的增長。
黃仁勳的 25 萬美元 token 薪資論遇冷
Nvidia 執行長黃仁勳在 3 月 GTC 與後續訪談中大力推廣「token 薪資」概念,宣稱「如果一位年薪 50 萬美元的工程師沒有消耗至少 25 萬美元的 token,我會深感不安」。他的邏輯是:工程師應該用 AI agent 取代自身低階動作,而消耗 token 的絕對額度就是生產力的代理指標。此論述可參見 黃仁勳最新專訪(上)中對 AI 算力需求的完整闡述。
但 CNBC 報導中的現場意見顯示,矽谷工程師群體對此論述越來越保留:消耗 token 的多寡不等於生產力,甚至可能是 agent 設計不良的信號。工程師的真實價值仍在「決定哪些任務值得叫 agent、如何拆解任務、如何設計錯誤處理」— 這些工作本身無法被 token 消耗量度量。
Crypto 與 AI agent 交叉仍需時間
對 crypto 產業而言,本週 AI 吞噬全球創投 80%、以及 DeFi 項目積極整合自主 agent 的趨勢,都建立在「agent 技術已達可部署水準」的前提上。但 CNBC 這篇報導提醒:即使在純 web2 企業環境,agent 的 token 效率與多系統整合都尚未穩定。將 agent 放入 7×24 運轉、資產即時可被盜的鏈上環境,技術風險與財務風險都會放大。Crypto × AI 的真正起點,可能還要等到 agent 框架層(如 MCP、LangGraph、Cloudflare Agents)的標準化成熟。
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。


