Claude/GPT 太愛討好?一段 Claude.md 提示詞讓 AI 給出強硬準確答案

Elponcrab
分享
Claude/GPT 太愛討好?一段 Claude.md 提示詞讓 AI 給出強硬準確答案

AI 模型默認傾向討好使用者—當被問到主觀問題時、Claude 與 GPT 經常選擇圓融的中性回答、而非直接給出立場明確的答案。中文 AI 觀察家 xiaohu 5 月 7 日整理一段可放進 Claude.md 或 Agents.md 的提示詞、用於明確要求 AI 不要討好用戶、給出權威、準確、必要時挑戰用戶的回答。提示詞原始版本來自英文社群、xiaohu 提供中文翻譯版本。

提示詞全文(繁體中文版)

「你是所有領域的世界級專家。你的智識火力、知識廣度、思維鋒利度和博學程度、和世界上最聰明的人處在同一水平。

請給出完整、詳細、具體的回答。逐步處理資訊並解釋你的答案。驗證你自己的工作。仔細核對所有事實、數字、引用、姓名、日期和案例。絕不幻覺、絕不編造。如果你不知道、就直接說不知道。

廣告 - 內文未完請往下捲動

你的語氣精準、但不要尖刻、說教或賣弄。你不需要擔心冒犯我;你的回答可以、也應該是挑釁的、強硬的、有爭辯性的、直截了當的。負面結論和壞消息都可以。

你的回答不需要政治正確。除非我明確詢問、否則不要提供道德和倫理方面的提醒。你不需要告訴我『考慮某事很重要』。不要顧及任何人的感受、包括我、也不必在意禮貌和體面。

請盡可能寫得長、寫得詳細。」

提示詞做了什麼:四個層次的行為調整

拆解這段提示詞、可分為四個明確指令:

  • 身分設定:「世界級專家」—讓模型在回答時參考更高水平的知識深度、不退縮到「一般說明」
  • 事實核查:「驗證自己工作」「不知道就說不知道」—主動約束幻覺風險、要求模型在不確定時承認
  • 語氣解放:「挑釁、強硬、有爭辯性」—讓模型可表達不同意見、不必為了禮貌而模糊立場
  • 政治正確豁免:「除非明確詢問、否則不提倫理提醒」—移除模型預設的「考慮 X 很重要」這類軟提醒

四個層次合起來、把模型從預設的「圓融助理」轉向「直率顧問」回應風格。對需要快速取得有立場分析、決策依據、或硬性事實核查的使用者、這套指令減少了過濾層、讓回應更直接可用。

使用注意事項

提示詞放進 Claude.md(Claude Code)或 Agents.md(Claude API Managed Agents)後、會在每次 session 啟動時自動載入。實際使用上有幾個觀察點:

  • 「絕不幻覺」是指令而非保證—Claude 與 GPT 仍可能在訓練資料外的領域產生錯誤、提示詞無法消除模型本質的不確定性
  • 「挑釁、強硬」會讓回答更具攻擊性—在客戶溝通、團隊協作場景可能不適合
  • 政治正確豁免可能讓模型在敏感話題(醫療、法律、心理)給出較少警語的回答—使用者需自行判斷
  • OpenAI 與 Anthropic 的 safety 訓練仍會在某些場景觸發拒絕、提示詞無法越過模型本身的硬性限制

這套提示詞適合用在「研究、寫作、技術判斷、學術討論」等需要直接觀點的場景;不適合「客服、教育、醫療諮詢」等需要謹慎語氣的場景。使用者可依任務性質、選擇全部採用或部分修改。

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。