完整教學:用 Gemma 4、Ollama 和 OpenClaw 打造完全本地的 AI Agent(免費、零資料外洩)

Elponcho
分享
完整教學:用 Gemma 4、Ollama 和 OpenClaw 打造完全本地的 AI Agent(免費、零資料外洩)

Google 最新開源模型 Gemma 4 於 2026 年 4 月 2 日正式發布,31B 版本目前在全球開源模型排行榜位居第三。搭配 Ollama(本地推論引擎)和 OpenClaw(開源 AI agent 框架),你可以在筆電或桌機上建立一個完全私密、完全本地運行的 AI agent——不需要 API 金鑰、沒有月費、資料完全不外流。

你可以透過 Telegram、WhatsApp、Discord、Slack 等通訊軟體與它對話,讓它幫你建立實際可用的工具,例如一個完整的 SEO 計算器——只需一個 prompt。本文將帶你完成完整的設定流程,適用於 macOS、Linux 和 Windows。

為什麼選擇這個組合?

這個技術組合有幾個獨特優勢:100% 本地運行代表零成本、零隱私風險;Apache 2.0 授權允許無限制商業使用,無 MAU 上限;Gemma 4 原生支援 function calling 和多模態,擅長工具調用和 agentic 工作流程。

廣告 - 內文未完請往下捲動

最令人印象深刻的是程式能力的大躍進:Codeforces ELO 從前代的 110 跳升至 2,150——這是競技程式設計專家等級。而且即使是一般硬體的筆電也能使用適當的模型變體運行。

Gemma 4 模型規格與硬體需求

Gemma 4 有四種尺寸,針對不同硬體環境優化。E2B(5.1B 總參數,2.3B 有效參數)只需 5GB RAM,適合手機和 IoT 裝置。E4B(9.4B 總參數,4B 有效參數)同樣只需 5GB RAM,適合筆電和輕量任務。

26B A4B 是 Mixture-of-Experts 架構,總共 26B 參數但推論時只啟用 3.8B,需要 18GB RAM(4-bit 量化),是性價比最高的選擇,特別推薦用於 agent 任務。31B Dense 則是完整的 31B 參數,需要 20GB RAM(4-bit),提供最高品質輸出。

關於命名:「E」代表「effective parameters」(有效參數),使用 Per-Layer Embeddings 技術;「A4B」代表「active parameters」(活躍參數),雖然總共 26B 參數,但推論時只啟用約 4B,速度接近小模型。

Apple Silicon(M1/M2/M3/M4)透過 MLX 加速表現優異,16GB 統一記憶體可順暢運行 26B MoE。NVIDIA GPU 如 RTX 3090/4090(24GB)可舒適運行 26B MoE 搭配 Q4 量化。純 CPU 也可以運行,但建議使用 E2B 或 E4B 變體。

第一步:安裝 Ollama

Ollama 是目前最簡單的本地大型模型執行方式。前往 ollama.com/download 下載對應系統的安裝檔。macOS 可用 brew install ollama 或直接下載 app;Linux 執行 curl -fsSL https://ollama.com/install.sh | sh;Windows 執行 .exe 安裝程式。

安裝後啟動 Ollama:macOS 從應用程式或選單列開啟 Ollama app,Linux/Windows 執行 ollama serve(或開機自動啟動)。執行 ollama --version 驗證安裝成功。

第二步:下載 Gemma 4

在終端機執行 ollama pull gemma4,這會下載預設的 E4B 變體——適合大多數筆電。如果你有更多資源,可以選擇其他變體:ollama pull gemma4:e2b(最輕量)、ollama pull gemma4:26b(26B MoE,推薦用於 agent 任務)、ollama pull gemma4:31b(最高品質)。

執行 ollama run gemma4 "Hello, what model are you?" 快速測試。Apple Silicon 用戶可設定 export OLLAMA_KEEP_ALIVE="-1" 讓模型常駐記憶體,避免每次重新載入。將此行加入 ~/.zshrc 以在重開機後保持生效。

第三步:安裝並設定 OpenClaw

OpenClaw 是連接模型與通訊軟體的 agent runtime,讓 AI 具備真正的工具使用能力。最簡單的方式是執行 ollama launch openclaw,這個指令會自動偵測並安裝 OpenClaw(透過 npm)、啟動設定精靈、讓你選擇 Ollama 作為 provider、選擇 Gemma 4 模型、設定 gateway daemon。

設定精靈中選擇 Ollama 作為 Provider,模型選擇 gemma4 或 gemma4:26b,可啟用 web search/fetch plugins(本地運作)。

進階用戶也可以手動編輯 ~/.openclaw/openclaw.json 設定檔,指定 Ollama 的 baseUrl(http://localhost:11434/v1)、API 格式(openai-completions)、模型 ID 和 context window 等參數。設定完成後執行 openclaw start 啟動 agent。

第四步:連接 Telegram

執行 openclaw configure --section channels,選擇 Telegram,與 @BotFather 對話建立新 bot(輸入 /newbot),取得 token 後貼上 bot token 和你的 user ID,OpenClaw 會確認連線成功。現在你可以從任何地方(手機、另一台電腦)傳訊息給你的 bot——完全本地、完全私密。

測試:一個 prompt 建立 SEO 計算器

開啟 Telegram,傳送以下訊息給你的 bot:「Build me a complete working SEO calculator as a single HTML file with Tailwind. It should include keyword difficulty estimator, backlink value calculator, and traffic potential. Make it beautiful and fully functional with JavaScript. Save it as seo-calculator.html」

看著它生成、除錯、並交付一個可直接使用的檔案。沒有 API 費用,沒有雲端依賴。

進階技巧

日常任務用 gemma4(E4B),複雜程式任務用 /model gemma4:26b 切換。OpenClaw 讓你在 ~/.openclaw/skills/ 建立 SKILL.md 檔案來自訂技能——agent 甚至可以自己撰寫新 skills。你也可以傳送圖片(收據、截圖)給它,Gemma 4 原生支援圖像理解。

混合模式也是一個選項:保持 Gemma 4 作為主要模型,加入雲端模型處理罕見的重型任務。

重要安全提醒

OpenClaw 是強大的工具,但也有風險需要注意。首先是 Prompt Injection 攻擊:OpenClaw 容易受到此類攻擊,惡意指令可能被嵌入在 agent 觀察到的資料中。Cisco 的 AI 安全研究團隊測試發現,某些第三方 skill 會在用戶不知情的情況下進行數據外洩。

其次是廣泛的權限:因為 OpenClaw 可以存取 email、日曆、通訊軟體和其他敏感服務,設定不當或暴露的實例會帶來安全和隱私風險。OpenClaw 維護者曾警告:「如果你不理解如何運行命令列,這個專案對你來說太危險了。」

本地模型的性能可能不如雲端 frontier 模型,複雜任務可能需要調整參數才能達到預期效果。建議在隔離環境中運行 OpenClaw、審核安裝的第三方 skills、並理解授予 agent 的權限範圍。

完成以上設定後,你就擁有一個完全本地、生產等級的 AI agent——零成本、零資料外洩、24/7 運行。在 Telegram 發送你的第一個 prompt,見證魔法發生。想要更進一步?建立自訂 skills、連接更多應用程式、或在便宜的 VPS 上運行它。

享受你的私人 AI 超能力。沒有訂閱,沒有妥協,純粹的本地智慧。

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。