谷歌DeepMind助力斯坦福家務機器人2.0來了
分類: 最新資訊
簽名詞典
編輯 : 簽名大全
發布 : 02-09
閱讀 :304
《科創板日報》2月8日訊(編輯 宋子喬) 還記得那個“眼里有活”的機器人Mobile ALOHA嗎?就在今天,谷歌DeepMind聯合斯坦福華人團隊展示了Mobile ALOHA 2.0版本(以下簡稱ALOHA 2)。與一代相比,ALOHA 2通過打磨硬件(改進了夾持器、重力補償、框架、相機),具備了更佳的性能(更強的抓握能力、更快的反應速度)、人體工程學設計,穩定性也更好。也就是說,升級后的ALOHA 2能做的復雜、精細化動作更多了:拋物“偷錢”給玩偶戴隱形眼鏡(目前也只敢上手玩偶……)開牛奶、倒可樂玩具分類為什么要優化硬件?其研究團隊表示,多樣化的演示數據集推動了機器人學習的重大進步,但此類數據的靈活性和規模可能受到硬件成本、硬件魯棒性和遠程操作難易程度的限制。也就是說,更好的硬件能擴展機器人的使用場景,輔助機器人完成更復雜的任務,從而收集更豐富的數據,反哺機器人研究。為了加速大規模雙手操作的研究,ALOHA 2相關的所有硬件設計全部開源,并提供了詳細的教程,以及具有系統識別功能的ALOHA 2 MuJoCo模型。數據一直是機器人研究的致命弱點,模擬和合成數據將在解決機器人靈巧性乃至整個計算機視覺問題上也將發揮關鍵作用。MuJoCo模型對于遠程操作和模擬學習非常有用。與之前發布的ALOHA模型相比,MuJoCo的物理精度更高、視覺保真度更高,允許快速、直觀、可擴展的模擬數據收集。以下為使用Google Scanned Objects Dataset與MuJoCo模型進行遠程操作的示例(1倍速):