輝達、聯發科雙強聯手打造 AI 原生助理未來車

DW
分享
輝達、聯發科雙強聯手打造 AI 原生助理未來車

輝達 (NVIDIA)與聯發科(MediaTek)展開深度合作關係, 雙強聯手建構高效的中央運算架構,NVIDIA DRIVE AGX 運算平台將人工智慧從單一指令接收器轉化為具備推理能力的 AI 代理,整合聯發科的 Dimensity AX 座艙晶片,藉由邊緣運算與雲端資源使車輛能提供低延遲、高隱私且具備個人化 AI 代理的體驗。

車載 AI 代理混合架構處理複雜運算需求

車載 AI 代理採用混合架構(Hybrid Architecture)以應對多元化的任務需求。邊緣端由 NVIDIA DRIVE AGX 平台執行,專門處理對延遲極度敏感(反應時間低於 500 毫秒)且涉及隱私的本地任務,例如語音控制、影像辨識及車輛遙測數據分析。即使在網路收訊不穩定或中斷的情況下,本地端仍能運行參數達 7B 以上的大型語言模型與視覺語言模型(VLM),確保基本功能運作。相對地,雲端環境則扮演「AI 工廠」的角色,負責執行網頁搜尋、複雜行程規劃等高運算需求任務持續進行模型訓練、微調與驗證,隨後將優化後的成果部署回車端,達成動態的效能平衡。

AI代理編排如何優化使用者體驗?

為了確保使用者在邊緣與雲端轉換間獲得無縫體驗,系統導入代理編排(Agent Orchestration)機制。當駕駛提出複雜需求時,系統會根據當前情境自動辨識意圖,將任務路由至正確的本地或雲端代理協作。例如討論行程時,系統會調動本地導航與雲端搜尋代理共同工作。關鍵在於上下文共享(Context Sharing)技術,系統會在不同平台間同步相關背景資訊,避免使用者重複指令,確保雲端資訊能正確反饋給本地系統。這種透明化的互動邏輯(UX Transparency)能追蹤非同步任務狀態,確保系統即使在網路切換或中斷時,仍能維持穩定且連貫的服務品質,減少對駕駛的干擾。

廣告 - 內文未完請往下捲動

軟體堆疊對跨平台部署的效能為何?

NVIDIA 透過 NeMo 與 TensorRT 提供統一的軟體架構,有效縮短從研發到實際部署的技術鴻溝。開發者可以在雲端環境使用 TensorRT-LLM 進行大規模推論,能無縫遷移至車載邊緣端的 TensorRT Edge-LLM 部署模型,這種一致性的工具鏈不僅確保了模型在不同環境下的效能與可靠性,也建立起「混合邊緣 X 雲端反饋循環」,透過車輛實際使用數據的累積,助理程式能不斷進行迭代進化,使其理解力與反應更趨精準,汽車製造商能更靈活地更新車載功能,使車輛具備隨使用時間自我優化的能力,大幅延長車載系統的技術生命週期。

 

NVIDIA 攜手聯發科實現未來 AI 原生車

NVIDIA 與聯發科合作的中央電腦架構將聯發科的  MediaTek Dimensity AX 系列座艙的晶片(SoC)與 NVIDIA DRIVE AGX 平台的 Orin 或 Thor 相結合。在此架構中,Dimensity AX 負責處理高階車內遊戲、多媒體與傳統資訊娛樂系統(IVI)的工作負載;而 NVIDIA DRIVE AGX 則專注於處理人工智慧運算,支持多模態應用與自動駕駛功能。

NVIDIA 與聯發科合作的晶片架構主要是將 MediaTek Dimensity AX 系列座艙系統單晶片(SoC)與 NVIDIA DRIVE AGX 平台相結合,構建出一種中央電腦(Central Car Computer)架構。

以下為該合作架構的關鍵細節:

  • 核心組件將 MediaTek Dimensity AX C-X1(或 C 系列)座艙 SoC 與 NVIDIA 的 DRIVE AGX(如 Orin 或 Thor)配對使用。
  • MediaTek Dimensity AX 負責處理高階車內遊戲、多媒體以及傳統的資訊娛樂系統(IVI)工作負載。
  • NVIDIA DRIVE AGX 卸載 AI 工作負載,支援多數 AI 模型,實現豐富的多模態應用與自動駕駛。
  • 聯發科的 Dimensity 平台與 NVIDIA 的 DRIVE AGX 共享 DriveOS 軟體環境。
  • 兩者透過 PCIE 連結,利用 DriveOS NvStreams API 實現影片與音訊等高頻寬數據的無縫共享 2。

輝達與聯發科的合作為汽車製造商提供了極具擴展性的選擇,汽車廠商能維持現有座艙體驗的同時升級成「AI 原生」未來車款。

 

 

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。