Google 揭首例 AI 製造零日漏洞:駭客欲繞過 2FA 大規模利用

Elponcrab
分享
Google 揭首例 AI 製造零日漏洞:駭客欲繞過 2FA 大規模利用

Google 威脅情報團隊(Threat Intelligence Group,GTIG)5 月 11 日揭露首例「由 AI 模型協助打造」的零日漏洞利用案:駭客集團計畫對某熱門開源網頁版系統管理工具發動「大規模利用」、目標是繞過該工具的雙因素驗證(2FA)登入機制。根據 CNBC 報導,Google 在攻擊正式發動前協同該工具供應商完成漏洞修補。

事件本身:零日漏洞如何被 AI 「製造」出來

GTIG 在分析駭客留下的 Python 漏洞利用腳本後、「高度確信」該腳本是由 AI 模型協助生成。判斷依據是腳本中出現多項 LLM 慣用特徵:

  • 大量教學式 docstring 與註解(與真實駭客通常簡潔的程式碼風格相反)
  • 內含「幻覺式 CVSS 評分」(AI 模型常見的杜撰行為)
  • 結構化、教科書式的 Python 程式風格與詳細的說明選單
  • 整潔的 _C ANSI 顏色類別等「LLM 訓練資料中典型」的模板痕跡

漏洞本身屬於「高層級語意邏輯缺陷」、源自一個被硬編碼的信任假設(hard-coded trust assumption)—Google 形容這正是 LLM 在程式分析中最擅長挖出的漏洞類型。實際攻擊路徑:駭客在取得受害者的合法帳密之後、透過該漏洞繞過 2FA 直接登入。

廣告 - 內文未完請往下捲動

Google 應對:與廠商靜默修補、攻擊未正式發動

Google 並未公開受害的開源系統管理工具名稱、亦未具名 AI 模型廠商。GTIG 在發現後與該工具的維護廠商協同進行「負責揭露」程序、靜默修補漏洞、Google 評估這套處理可能在駭客集團正式啟動大規模利用前、就破壞了行動的勢頭。

Google 也未具體點名攻擊者—僅描述為「網路犯罪威脅行為者」(cybercrime threat actors)、未指認國家行為者背景。

產業意義:AI x 資安進入新階段

本媒體觀察:本案是 Google 首次公開記錄「AI 模型在野外被武器化用於漏洞發現與利用程式產生」的案例。過去半年市場討論「AI 駭客能力是否被誇大」、雙方各有論點:肯定派指出開源 LLM 加上專屬資料集已足以協助找漏洞、否定派則指出 LLM 寫出的漏洞利用程式多半在實際環境中無法運作。

GTIG 這次的判定提供一個具體數據點—LLM 不只能找漏洞、還能寫出「足以發動大規模利用」的可運作程式。資安研究員 Ryan Dewhurst 評論:「AI 已在加速漏洞發現、降低識別、驗證、武器化缺陷所需的勞力。」

後續可追蹤的事件包括:Google 是否陸續公開更多 AI 駭客個案、其他資安廠商(Microsoft Defender、CrowdStrike、Mandiant 等)是否提出類似觀察、以及 LLM 廠商(OpenAI、Anthropic、Google 自家)是否針對漏洞分析類請求建立更嚴格的偵測機制。

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。