仿生立體定位演算法

同步定位與地圖構建(simultaneous localization and mapping, SLAM)是機器人學的一大熱門領域,探討機器人如何在探索未知空間時定位,並同時建構周遭環境的地圖。現今很多SLAM的實作都是基於影像與深度感測器結合,繪製詳細環境地圖,也有些人嘗試僅藉由影像本身來完成整個導航系統。今天要介紹的SLAM就是一個例子,而且這個演算法引入哺乳動物大腦導航系統的核心,網格細胞(grid cell)、頭向細胞(head direction cell)、結合姿態細胞(conjunctive pose cell)的部分概念。事實上昆士蘭科技大學的Michael Milford 團隊長期致力於仿生定位演算法的開發,本文的主角NeuroSLAM,是基於先前的RatSLAM發展而來,將導航系統由二為平面延展至三維空間。

為表示三維空間,系統運用三維的網格細胞和頭向細胞網路協同表示結合姿態細胞的狀態,空間座標(x, y, z)加上轉向(yaw),藉由此資訊能更深入和視覺路徑積分(visual odometry)結合,形成一張立體的經驗地圖(experience map)。另一方面,輸入端是一群區域視野細胞(local view cell),不同的活躍模式表示不同的影像輸入,藉此一旦回到同樣的地點,也能得到同樣的細胞活躍模式,達到整個經驗地圖的環線閉合校正(loop closure)。實驗結果顯示,NeuroSLAM能達到與現今尖端的SLAM演算法相當接近的結果,有效克服單純視覺路徑積分的累積誤差。然而NeuroSLAM仍仰賴大量運算資源,所有實驗結果都是採事後分析,若能克服運算瓶頸,將能彰顯仿生設計的一大優勢。


撰文:姚皇宇


原始文獻:F. Yu, J. Shang, Y. Hu, and M. Milford, “NeuroSLAM: a brain-inspired SLAM system for 3D environments,” Biol Cybern, Sep. 2019.

留言