最新版本的果蠅感覺運動模擬

本篇論文的研究團隊推出了NeuroMechFly的第二版本,使用該工具我們能夠模擬果蠅在不同的理論模型下的行動軌跡,這次升級為第一版本的基礎上增加了視覺及嗅覺的感知。
圖1. 該工具的基本架構。a. 模擬視覺及嗅覺訊號結合腿部的環境感知回傳運動系統。b. 環境模擬圖。c. 模擬流程。

該工具的運行原理為給予立體空間上的視覺刺激,工具會模擬果蠅的複眼訓練之下的CNN模型來模擬果蠅視覺,以此來與其他訊號如腿部對環境地面粗糙度或氣味來源的訊號的感知結合推算出轉向訊號(圖2)。
圖2.a.相機及嗅覺接收器模擬果蠅實際位置。b. 模擬果蠅複眼接收環境視覺刺激。c.視覺訓練的演示及模型。d. 嗅覺訓練的演示及模型

有了這項工具,我們能夠更簡潔快速地驗證我們的神經模型與果蠅實際回路的差異。除此之外,該工具兼容一些常用的機器人控制界面(如Gymnasium),因此該工具簡化了深度學習機械控制的難度。


撰文:陳怡亨


原始論文:Wang-Chen, S., Stimpfling, V.A., Lam, T.K.C. et al. NeuroMechFly v2: simulating embodied sensorimotor control in adult Drosophila. Nat Methods (2024). https://doi.org/10.1038/s41592-024-02497-y

留言