當 AI 成核武級武器:Ben Thompson 談 Anthropic 與五角大廈衝突
美國科技圈近期爆發一場高度政治化的 AI 爭議:Anthropic 因拒絕在「大規模國內監控」與「完全自主武器」兩類用途上移除安全護欄,遭美國國防部停止合作、甚至被威脅標記為「供應鏈風險」。
對此,分析師 Ben Thompson 在〈Anthropic and Alignment〉一文中,以國際法與核武為隱喻,提出一個更殘酷的命題:當 AI 可能成為與核武同級的權力基礎時,美國不會容許一個獨立於國家控制之外的力量中心存在。
國際法只是權力的函數
Thompson 先以美伊衝突為例指出,國際法之所以有效,根本在於是否有人能執行。沒有超國家強制力,所謂「誰違法」最終取決於誰更強。換言之,力量(might)才是最終裁決者。
他把這一邏輯投射到 AI 爭議上:若 AI 的戰略價值接近核武,那麼它將實質改變權力結構。此時,決定 AI 如何被軍方使用的權力,不可能長期掌握在一家未經選舉的私人公司手中。
衝突核心:Anthropic 的紅線
Anthropic 創辦人 Dario Amodei 公開聲明,公司不會提供:
- 大規模國內監控:AI 能將零散、看似無害的公開資料拼接成完整個人檔案,對公民自由構成新型風險。
- 完全自主武器:現階段前沿模型可靠性不足,且缺乏充分監督機制。
- 國防部方面則傳出要求 AI 供應商接受「任何合法用途」,並考慮將 Anthropic 列為供應鏈風險,甚至動用《國防生產法》施壓。
Thompson 認為,這不只是合約爭議,而是權力歸屬問題。軍事能力的使用,應由民選總統與國會負責,還是由科技公司執行長決定?
如果 AI 是核武級的武器
Amodei 曾在達沃斯警告,向中國出售高階 AI 晶片如同「把核武賣給北韓」。Thompson 反問:既然你認為 AI 等同核武,那麼美國為何會容許一家私人公司握有此等戰略資產的最終裁量權?
這引出他的核心推論:若 AI 具備改變國際權力平衡的能力,若它可能左右戰爭與國安決策,那麼美國政府理性上會選擇確保完全控制權。
在這個框架下,他提出近乎二元的結論:
- Anthropic 接受從屬於國家決策架構
- 政府以法律、政策甚至更激烈手段削弱其獨立性
台灣、晶片與 AI 博弈
Thompson 也把討論延伸至晶片與台灣。他指出,台灣的 TSMC 在全球供應鏈中的關鍵角色,一直是中國動武前的重要戰略考量。但若美國全面切斷中國高階晶片供應,結果可能是中國不再依賴台積電,摧毀台積電的成本相對下降。在極端情境下,「若我不能擁有 AI,別人也不能」的博弈思維反而升高風險。
對於一位長期關注中美科技戰與台灣風險的分析師而言,這是一種系統性後果的警告。政策不能只看單點安全,而必須思考權力結構如何重塑整體均衡。
Anthorpic 對 AI 監控的憂慮合理,但應用法律解決
Thompson 也質疑 Anthropic 對開源模型的保留態度。他提出三點反思:
- 若只有封閉模型,權力將極度集中於少數公司;
- AI 不可能只由「負責任守門人」壟斷,激勵機制會促使其他玩家崛起;
- 在 AI 擴散的世界裡,「對抗 AI 的最好方式是更多 AI」。
他擔憂的是,Anthropic 的立場呈現出一種「由我來掌握全部安全開關」的傾向,卻忽略現實世界中還有國家、軍隊與核武。但 Thompson 也不認為政府可以為所欲為,他認為對 AI 監控與武器的憂慮合理,但解方應是立法與可問責監督,而非將最終決定權交給未經選舉的企業高層。
在他看來,真正的對齊(alignment)問題,不只是模型對齊人類價值,而是企業權力是否對齊民主政治的權力結構。
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。


