Google 推出 Gemini Robotics ER 1.6:SOTA 機器人模型,擅長視覺與空間推理

Elponcrab
分享
Google 推出 Gemini Robotics ER 1.6:SOTA 機器人模型,擅長視覺與空間推理

Google DeepMind 發表全新的機器人基礎模型 Gemini Robotics ER 1.6,其中 ER 代表 Embodied Reasoning(具身推理)。這款模型在視覺與空間推理方面達到當前最佳水準(SOTA),並已透過 Gemini API 開放使用。Google AI 開發者關係負責人 Logan Kilpatrick 在社群媒體上公布了這項消息。(來源

什麼是 Embodied Reasoning?

Embodied Reasoning 是指 AI 模型理解並推理物理世界的能力。與傳統的語言模型不同,具身推理模型需要處理三維空間中的物體位置、形狀、材質與物理互動關係。Gemini Robotics ER 1.6 專門針對這類任務進行優化,使機器人能夠更準確地理解周圍環境並做出適當的動作決策。

核心能力

Gemini Robotics ER 1.6 的主要優勢集中在兩個面向:

廣告 - 內文未完請往下捲動

能力 說明
視覺推理 能夠從影像與影片中辨識物體、理解場景結構,並據此進行決策
空間推理 理解三維空間中物體的相對位置、距離與方向,支援複雜的操作規劃

這兩項能力的結合讓機器人能夠處理更複雜的現實世界任務。例如,在倉儲環境中,機器人需要同時辨識不同形狀的物品,並計算最佳的抓取角度與放置位置 — 這正是 Gemini Robotics ER 1.6 所擅長的場景。

透過 Gemini API 使用

與過去許多僅停留在論文階段的機器人模型不同,Gemini Robotics ER 1.6 已經透過 Gemini API 提供存取。這意味著開發者與硬體廠商可以直接將這款模型整合到自己的機器人系統中,無需從零開始訓練模型。

API 的開放也降低了機器人 AI 的開發門檻。過去,開發一套具備視覺與空間推理能力的機器人系統需要大量的資料收集與模型訓練工作。現在,開發者可以專注在硬體設計與應用場景的開發上,將底層的推理能力交給 Gemini Robotics ER 1.6 處理。

Google 的機器人 AI 布局

Gemini Robotics ER 1.6 是 Google DeepMind 在機器人領域的最新成果。從早期的 RT-2 到現在的 Gemini Robotics 系列,Google 持續將大型語言模型的能力延伸到物理世界的互動中。ER 1.6 版本在前代基礎上進一步提升了推理精度,特別是在需要精細操作的場景中表現更為出色。

隨著機器人產業進入新一輪成長期,具備強大視覺與空間推理能力的基礎模型將成為關鍵基礎設施。想了解更多 Gemini 生態系的發展,可以參考 Gemini 完整指南

風險提示

加密貨幣投資具有高度風險,其價格可能波動劇烈,您可能損失全部本金。請謹慎評估風險。