微軟新研究:無人機獲推理能力,看圖就能做出決策
Adios / 何渝婷編譯
2020-03-25 09:30

(示意圖/取自pixabay)

一般來說,人類通過感知來作出相應的決策,比如因為看到障礙物而選擇避讓。

儘管這種「從感知到動作」的邏輯,已經應用到了感測器和攝影鏡頭領域,並成為了當前一代機器人自主系統的核心。但是,目前機器的自治程度,遠遠達不到人類根據視覺數據而作出決策的水平,尤其是在處理第一人稱視角(FPV)航空導航等開放世界感知控制任務時。

不過,微軟近日分享的新機器學習系統,為這一個領域帶來了新的希望:幫助無人機通過圖像推理出正確的決策。

微軟從第一人稱視角(FPV)無人機競賽中獲得啓發,競賽中的操作員,可以通過單眼鏡頭來規劃和控制無人機的運行路線,從而大大降低發生危險的可能性。因此,微軟認為,這一模式可以應用到新的系統當中,從而將視覺資訊直接映射成實施正確決策的動作。

具體來說,這個新系統明確地將感知組件(理解「看到的」內容),與控制策略(決定「做什麼」)分開,這樣便於研究人員調試深層神經模型。模擬器方面,由於模型必須能夠分辨出模擬和真實環境之間細微的差異性,微軟使用了一種名為「AirSim」的高保真模擬器,對系統進行訓練,然後不經修改,直接將系統部署到真實場景裡的無人機上。

他們還使用了一種稱為「CM-VAE」的自動編碼器,框架來緊密連接模擬與現實之間的差異,從而避免對合成數據進行過度擬合。通過 CM-VAE框架,感知模塊輸入的圖像,從高維序列壓縮成低維的表示形式,比如從2000多個變量降至10個變量,壓縮後的像素大小為 128x72,只要能夠描述其最基本的狀態就行。儘管系統僅使用了10個變量對圖像進行Coding,但解碼後的圖像為無人機提供了「所見場景」的豐富描述,包括物體的尺寸、位置,以及不同的背景資訊。而且,這種維度壓縮技術是平滑且連續的。

為了更好地展示這一系統的功能,微軟使用帶有前置鏡頭的小型敏捷四旋翼無人機進行了測試,試圖讓無人機根據來自RGB攝影機的圖像,來進行導航。

研究人員分別在由8個障礙框組成的長達45公尺的S型軌道上,以及長達40公尺的O型軌道上,對裝載系統的無人機進行了測試。實驗證明,使用CM-VAE自動Coding框架的表現,比直接Coding的表現要好很多。即便是在具有強烈視覺干擾的情況下,這個系統也順利地完成了任務。

微軟方面聲稱:「在模擬訓練階段,在無人機從未『見過』的視覺條件下對其進行測試,我們將感知控制框架發揮到了極致。」

在通過仿真訓練後,這個系統能夠獨立在現實世界充滿挑戰的環境下,進行「自我導航」,非常適合部署在搜索和救援任務中。該項研究的參與者表示,該系統在實際應用中將展現出巨大的潛力。即使是年齡、大小、性別、種族和其他因素有所不同,但自主搜索和救援機器人能夠更好地辨識出人類,並幫助人類。

本文為雷鋒網授權刊登,原文標題為「微軟新研究:無人機獲推理能力,看圖就能做出決策