AI 有讓生活更方便嗎?Balaji 與 a16z 探討如何縮短驗證 AI 內容的時間成本?

生成式 AI 大幅提升資訊產出速度,卻也引發一項被忽視的隱憂「驗證落差 (Verification Gap)」。從 Coinbase 前技術長 Balaji 到 OpenAI 共同創辦人 Karpathy,再到創投巨頭 a16z,皆警告:「AI 產出的驗證成本,正在成為新時代最大的瓶頸與風險。
Balaji:AI 使用者的「驗證成本」成真正瓶頸
Coinbase 前技術長 Balaji 在上個月曾發文指出,AI 的使用流程可以拆成兩個階段:「輸入提示詞 (prompting)」與「驗證輸出 (verifying)」。
前者人人都能做,打幾行字就好;但後者就較為困難,需要專業知識、耐心與邏輯思維,來判斷 AI 是否產生了錯誤或「幻覺 (hallucination)」。
AI PROMPTING → AI VERIFYING
AI prompting scales, because prompting is just typing.
But AI verifying doesn’t scale, because verifying AI output involves much more than just typing.
Sometimes you can verify by eye, which is why AI is great for frontend, images, and video. But…
— Balaji (@balajis) June 4, 2025
他表示,這種差距在圖片或影片上很好處理,人眼天生擅長判斷視覺內容。但一旦面對程式碼、技術性文章或邏輯推理,驗證工作就變得相當棘手:
使用 AI 最重要的問題是,我要如何以低成本的方式驗證這個 AI 模型的輸出內容是正確的?我們需要其他工具或產品來驗證其他非視覺領域的內容。
他補充:「對於使用者來說,AI 驗證與 AI 提示詞同樣重要。」
Karpathy:AI 加速了創作、但沒有減少驗證過程
OpenAI 共同創辦人暨特拉斯自動駕駛之父 Andrej Karpathy 進一步延伸 Balaji 的觀點,指出創作本質是兩個階段並重複進行的過程「生成 (generation)」與「判斷 (discrimination)」:「你畫了一筆 (生成),也得退一步思考這一筆是否真的改善了作品 (判斷)。」
他認為大型語言模型 (LLM) 大大壓縮了「生成」的時間成本,讓用戶能夠瞬間取得大量產出,但完全沒有幫助減少「判斷」的成本與工作量。對於程式碼來說尤其嚴重:
LLM 很容易就產出幾十行甚至幾百行程式,但工程師仍需要一行一行閱讀、理解並檢查所有邏輯與潛在錯誤。
Karpathy 表示,這其實也是大多數工程師最花時間的事,這就是所謂的「驗證落差 (Verification Gap)」,AI 加速了創作過程,但這個時間成本直接轉移到了驗證中。
(從理專到秘書,看 AI 代理的信任挑戰:我們能相信人工智慧的自主決策嗎?)
a16z:生成時代的信任危機,得靠加密技術補上缺口
知名創投 a16z 則從制度與產業層面切入,他們認爲 AI 技術會加速「假資訊」的氾濫,因為生成門檻低且難以驗證,網路將被充斥大量偽造內容。a16z 對此主張信任應該被工程化,解決方式是引入加密技術,像是:
-
對 AI 分階段產出的資料分別進行密碼學加工 (hashed posts)
-
使用區塊鏈驗證的身份進行創作 (crypto IDs)
-
透過鏈上資料的公開且可追溯性,建立出處可信的內容鏈
這些做法不但能讓資訊不可竄改且可驗證,也為 AI 世代的內容可信度建立起防線,有望成為加密技術與 AI 領域的重要交集。
(Messari 專文解析:Mira 協議如何透過去中心化共識機制,讓 AI 更誠實?)
從提示詞到驗證能力,AI 時代的新素養與需求已成形
目前,生成式 AI 帶來的是資訊產能的指數級成長,但若沒有同等高效率的驗證能力互相配合,用戶反而會陷入操作費時與假資訊污染的困境之中。
因此,當前 AI 時代的核心技能,也不再只是會寫出精準的 prompt,而是能有效且低成本地驗證 AI 的產出。不論是透過 AI 模型的互相審查或專業的驗證工具,都顯得格外重要。
風險提示
加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。