AI 有讓生活更方便嗎?Balaji 與 a16z 探討如何縮短驗證 AI 內容的時間成本?

Crumax
分享
AI 有讓生活更方便嗎?Balaji 與 a16z 探討如何縮短驗證 AI 內容的時間成本?

生成式 AI 大幅提升資訊產出速度,卻也引發一項被忽視的隱憂「驗證落差 (Verification Gap)」。從 Coinbase 前技術長 Balaji 到 OpenAI 共同創辦人 Karpathy,再到創投巨頭 a16z,皆警告:「AI 產出的驗證成本,正在成為新時代最大的瓶頸與風險。

Balaji:AI 使用者的「驗證成本」成真正瓶頸

Coinbase 前技術長 Balaji 在上個月曾發文指出,AI 的使用流程可以拆成兩個階段:「輸入提示詞 (prompting)」與「驗證輸出 (verifying)」。

廣告 - 內文未完請往下捲動

前者人人都能做,打幾行字就好;但後者就較為困難,需要專業知識、耐心與邏輯思維,來判斷 AI 是否產生了錯誤或「幻覺 (hallucination)」。

他表示,這種差距在圖片或影片上很好處理,人眼天生擅長判斷視覺內容。但一旦面對程式碼、技術性文章或邏輯推理,驗證工作就變得相當棘手:

使用 AI 最重要的問題是,我要如何以低成本的方式驗證這個 AI 模型的輸出內容是正確的?我們需要其他工具或產品來驗證其他非視覺領域的內容。

他補充:「對於使用者來說,AI 驗證與 AI 提示詞同樣重要。」

Karpathy:AI 加速了創作、但沒有減少驗證過程

OpenAI 共同創辦人暨特拉斯自動駕駛之父 Andrej Karpathy 進一步延伸 Balaji 的觀點,指出創作本質是兩個階段並重複進行的過程「生成 (generation)」與「判斷 (discrimination)」:「你畫了一筆 (生成),也得退一步思考這一筆是否真的改善了作品 (判斷)。」

他認為大型語言模型 (LLM) 大大壓縮了「生成」的時間成本,讓用戶能夠瞬間取得大量產出,但完全沒有幫助減少「判斷」的成本與工作量。對於程式碼來說尤其嚴重:

LLM 很容易就產出幾十行甚至幾百行程式,但工程師仍需要一行一行閱讀、理解並檢查所有邏輯與潛在錯誤。

Karpathy 表示,這其實也是大多數工程師最花時間的事,這就是所謂的「驗證落差 (Verification Gap)」,AI 加速了創作過程,但這個時間成本直接轉移到了驗證中。

(從理專到秘書,看 AI 代理的信任挑戰:我們能相信人工智慧的自主決策嗎?)

a16z:生成時代的信任危機,得靠加密技術補上缺口

知名創投 a16z 則從制度與產業層面切入,他們認爲 AI 技術會加速「假資訊」的氾濫,因為生成門檻低且難以驗證,網路將被充斥大量偽造內容。a16z 對此主張信任應該被工程化,解決方式是引入加密技術,像是:

  • 對 AI 分階段產出的資料分別進行密碼學加工 (hashed posts)

  • 使用區塊鏈驗證的身份進行創作 (crypto IDs)

  • 透過鏈上資料的公開且可追溯性,建立出處可信的內容鏈

這些做法不但能讓資訊不可竄改且可驗證,也為 AI 世代的內容可信度建立起防線,有望成為加密技術與 AI 領域的重要交集。

(Messari 專文解析:Mira 協議如何透過去中心化共識機制,讓 AI 更誠實?)

從提示詞到驗證能力,AI 時代的新素養與需求已成形

目前,生成式 AI 帶來的是資訊產能的指數級成長,但若沒有同等高效率的驗證能力互相配合,用戶反而會陷入操作費時與假資訊污染的困境之中。

因此,當前 AI 時代的核心技能,也不再只是會寫出精準的 prompt,而是能有效且低成本地驗證 AI 的產出。不論是透過 AI 模型的互相審查或專業的驗證工具,都顯得格外重要。

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。