昆蟲視覺啟發之角速度解碼模型(AVDM)

若要以視覺引導飛控,需要高效且穩健的運動偵測系統,而模擬果蠅、蜜蜂等飛蟲的視覺神經網路,可以給予人工運動偵測模型方向。在這篇論文中,作者利用基本運動檢測器(EMD)計算飛行中的角速度估計,其結果顯示其角速度解碼結果和空間頻率較無關。算法分為三部分:提取空間訊息的紋理檢測、提取時間訊息的基本運動檢測器(EMD),和角速度解碼層,如圖一所示。
圖一:整體模型架構。先從複眼接收光柵訊息,檢測紋理和檢測運動後,兩個訊息在角速度解碼層中結合。

1. 紋理檢測
先將光柵刺激轉換成二值圖像 $I_B(t)$,並計算整個視野內的邊界線數來估計空間頻率:
$$\hat\lambda(t)=\frac{2MN_{\varphi}}{\int\int|I_B(x,y+1,t)-I_B(x,y,t)|dxdy}$$
作者提及若是更複雜的圖形刺激,可以以線性濾波器(如Gabor濾波器),更助於提取紋理。

2. 基本運動檢測器
(1) 以 $I(x,y,t)$ 作為輸入圖像序列,視覺訊息先在視網膜中做平滑處理,這裡使用高斯濾波器模擬:
$$P(x,y,t)-\int\int I(x-u,y-v,t)G(u,v)dudv$$
(2) 由於比起絕對光強度,蜜蜂對於強度變化更為敏感,因此先計算光強度變化:
$$L(x,y,t)=\int P(x,y,t-u)H_1(u)du+\int L(x,y,t-u)H_2(u)du$$
$H_1$、$H_2$分別為時間濾波器,定義如下:
$$H_1(u)=\delta(u)-\delta(u-\tau), H_2(u)=(1+e^{\mu u})^{-1}$$
(3) 生物的視覺系統中會將刺激分成ON、OFF兩通道,ON處理光強度增加,OFF處理光強度減少,模型同樣將刺激分為這兩種。
(4) 有了計算完的光強度變化,並分成ON、OFF以後,接著就是做 HR 模型:
$$D^+(x,y,t)=L^+(x,y,t-\tau)L^+(x,y+1,t)-\alpha L^+(x,y,t)L^+(x,y+1,t-\tau)$$
上述以ON通道的為例,OFF通道的以此類推。

3. 角速度解碼層
由於蜜蜂有數千個小眼,空間位置的不同,他們的反應也略有不同,因此對於不同位置的小眼,給予不同的權重補償差異,$\theta_{x,y}$代表像素偏離中心的視角,而權重式子如下:
$$\omega(x,y)=\frac{1}{\cos{\theta_{x,y}}+1}$$
視覺響應可以以下方程式粗略表示:
$$R_0 \approx \frac{C^2}{2(1+C)^2}[\sin{(\frac{2 \pi (\varphi+\tau \omega)}{\lambda})}-\alpha \sin{(\frac{2 \pi (\varphi-\tau \omega)}{\lambda})}]$$
此層目的是要解碼出角速度$\omega$,作者使用以下解碼函數來近似角速度:
$$\hat \omega(t)=a \hat \lambda^b(t)(1+\frac{1}{\hat C(t)})\sqrt{R(\omega,\lambda,t)}$$
模型輸出結果如圖二,可見在不同的空間頻率情況下,實際角速度和估計的角速度大致上都是吻合的,因此展示了模型的空間獨立性。
圖二:每條線代表不同空間頻率刺激,展示出空間獨立性。

論文中還有使用Unity平台設置虛擬環境對模型進行測試,測試結果的影片也有公開在論文中(如:https://youtu.be/gNvtaSqNjdI),有興趣的讀者可以從論文中點擊影片連結觀看。

結論
作者提出了個角速度解碼模型(AVDM),考慮蜜蜂實際的生物參數,結合刺激的紋理和時間訊息來估計視覺運動速度,展示了高度的空間頻率獨立性,並進一步以虛擬環境再現蜜蜂的飛行行為。此篇較不著重於實際的電生理數據擬合,而是嘗試開發算法重現視覺飛行行為;而模擬昆蟲的神經網路可以在後續研究一些微型無人機減少計算量,不過目前只有前進與後退有提供檢測,若再結合向上向下運動,便更能處理複雜的視覺場景。


撰文:吳芯瑀


Reference
Wang, Huatian, et al. "A bioinspired angular velocity decoding neural network model for visually guided flights." Neural Networks 136 (2021): 180-193.

留言