DeepSeek V4 Pro 上 Ollama Cloud:Claude Code 一鍵串接
根據 Ollama 官方 4 月 27 日推文,由中國 AI 公司 DeepSeek 於 4 月 24 日發布的旗艦模型 DeepSeek V4 Pro,正式以雲端模式進駐 Ollama 官方目錄,使用者只需一行指令即可從 Claude Code、Hermes Agent、OpenClaw、Codex、OpenCode 等主流 agent 工具呼叫該模型。這是 Ollama 整合主流大模型最快速的一次同步—從 DeepSeek 釋出權重到 Ollama Cloud 上線,僅相隔三天。
DeepSeek V4 Pro:1.6T 參數、1M context
V4 Pro 採 Mixture-of-Experts 架構,總參數規模 1.6 兆(49 億活躍參數),上下文窗口 1M token。第三方基準 Artificial Analysis 指出,V4 Pro 在 SWE-bench(80.6%)、LiveCodeBench(93.5%)、Terminal-Bench(67.9%)等程式編寫基準上與 Kimi K2.6 並列開源模型前段班,整體 Intelligence Index 落後 Kimi K2.6 一個身位。
同期 DeepSeek 也釋出較輕量的 V4 Flash 模型,兩者皆採 MIT 授權開源,可從 Hugging Face 下載權重。
Ollama Cloud 雲端推論、權重不下載本機
deepseek-v4-pro:cloud 為 Ollama Cloud 模型—推論在 Ollama 雲端進行、權重不下載到使用者本機。這是 Ollama 處理超大模型的標準作法,先前 Kimi K2.6 也採同樣方式收錄。對使用者而言,最大優勢是不需自備數十張 GPU 即可呼叫旗艦級模型;缺點是仍需網路連線,並依 Ollama 雲端負載分配運算資源。
若要完全本地執行,須自 Hugging Face 取得 deepseek-ai/DeepSeek-V4-Pro 權重,搭配 INT4 量化版本(如 Unsloth 釋出的 GGUF)與多卡 GPU 配置才有可行性。一般消費級硬體不足以承載完整模型。
一行指令串接 Claude Code、Hermes Agent、OpenClaw
Ollama 同步釋出對主流 agent 工具的整合 launcher 指令:
# 直接對話
ollama run deepseek-v4-pro:cloud
# 串接 Claude Code
ollama launch claude --model deepseek-v4-pro:cloud
# 串接 Hermes Agent
ollama launch hermes --model deepseek-v4-pro:cloud
# 串接 OpenClaw / OpenCode / Codex
ollama launch openclaw --model deepseek-v4-pro:cloud
ollama launch opencode --model deepseek-v4-pro:cloud
ollama launch codex --model deepseek-v4-pro:cloud
意義在於:開發者過去在 Claude Code 內若想換用 DeepSeek,需透過 OpenAI 相容 API 自行串接、處理 endpoint 與認證;現在透過 Ollama 一行指令即可完成。對 Claude Code 重度使用者而言,這提供了一條把 Anthropic 模型替換為 DeepSeek(或同理可換 Kimi)以降低成本的快速路徑。
早期測試者反應:速度從 30 tok/s 到尖峰 1.1 tok/s
推文下方社群討論顯示,雲端推論的速度視 Ollama 雲端負載而異。多位早期測試者回報尖峰時段速度偏慢,從常態 30 tokens/s 降至 1.1 tokens/s 級別,使用者 @benvargas 直接貼出截圖抱怨「Need More Compute」。Ollama 在另一條回覆中坦承官方團隊「也在玩這個模型」,意指流量仍處於探索期,尚未做完整的容量規劃。
對追求穩定產線速度的開發者,目前的建議是:用雲端模式作為原型測試與成本評估,正式產品仍需自建 GPU 推論設施或選擇商用 API。Ollama 完整教學已同步補上 V4 Pro 條目與雲端/本地的取捨說明。
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。


