Facebook使用3D導航任務,來訓練自主機器人
李雨晨 / 鄭寧編譯
2020-04-13 17:35

據外媒Venturebeat報導,Facebook、喬治亞理工學院和俄勒岡州立大學的研究人員,在本週發表的一篇預印本論文中,描述了人工智慧的一項新任務,透過聽自然語言的指令,在3D環境中導航(例如,「走進大廳,在木桌旁左轉」)。

他們說,這可以為遵循自然語言指令的機器人助理奠定基礎。

研究人員的任務,被稱之為在連續環境中的視覺和語言導航(VLN-CE),是在Facebook的模擬器Habitat中進行的,該模擬器可以訓練機器人助理在模擬真實環境的環境中操作。直徑為0.2公尺、1.5公尺高的助理被放置在來自Matterport3D資料庫的內部,該資料集是透過10800多個全景圖,和相應的3D網格捕獲的90個環境的集合。

機器人助理必須在一條路徑上做四個動作(向前移動0.25公尺,左轉或右轉15度,或停在目標位置)中的一個,並學會避免被困在障礙物上,比如椅子和桌子上。

研究小組將這些環境提煉成4475條由4到6個節點組成的軌跡,這些軌跡對應於在各個位置拍攝的360度全景圖像,顯示了導航能力。

他們用這個訓練兩個人工智慧模型:一個sequence-to-sequence模型,該模型由採取視覺觀察和指令表示的策略組成,並使用它們預測一個動作;另一個是兩個網路交叉模式注意模型,該模型追蹤觀察結果,並根據指令和特徵做出決策。

研究人員表示,在實驗中,表現最好的機器人可以遵循「向左轉,進入走廊」之類的指令,儘管這些指令要求機器人在發現視覺路標之前轉動未知的次數。事實上,機器人在看不見的環境,大約三分之一的場景中導航到目標位置,平均採取了88次行動。

這些機器人偶爾也會失敗,根據共同作者的說法,這些失敗通常是由於機器人在視覺上丟失了指令中提到的物件。

「至關重要的是,VLN-CE為(研究)社區提供了一個測試平臺,在這裡可以進行研究高級和低級控制介面的這類集成實驗,」共同作者寫道。

Facebook投入了大量資源來解決自主機器人導航的問題。

據了解,今年6月,在公布了一項訓練六足機器人走路的計畫後,Facebook首次推出了PyRobot,一種用於PyTorch機器學習框架的機器人框架。2018年,Facebook推出了開源人工智慧,可以透過360度圖像在紐約市街道上導航。最近,Facebook的一個團隊發表了一篇論文,描述了一個透過觀看影片學習如何在辦公室裡走動的系統。

本文為雷鋒網授權刊登,原文標題為「Facebook提出使用3D導航任務來訓練自主機器人」