打造大腦內建的「環景雷達」:科學家揭開我們如何僅憑「眼前所見」,就學會感知「身後」的牆
開場:房間裡的「隱形地圖」
想像一個情境:你在半夜醒來,房間裡一片漆黑。你看不清楚,但你「知道」床尾離牆壁大概三步遠,往左走五步會撞到書桌。
你是怎麼知道的?
在我們的大腦深處,住著一個精密的「導航系統」。這個系統中有兩種地圖:
1. 異我中心地圖 (Allocentric map): 就像一張鳥瞰圖或「上帝視角」的地圖。它告訴你,你的書桌在臥室的「西北角」,無論你面向哪裡,這個事實都不會改變 。
2. 自我中心地圖 (Egocentric map): 這是你的「第一人稱視角」。它告訴你,「書桌在我正前方」、「牆壁在我的左邊」。當你轉身時,這張地圖會跟著你一起旋轉 。
長久以來,科學家最大的疑問是:大腦是如何將我們眼睛看到的「第一人稱」畫面,轉譯成一張精確的「上帝視角」地圖的? 如果沒有這個翻譯過程,我們每次轉身都會迷路。
研究背景:神祕的「邊界細胞」
近年來,科學家在一個稱為「後壓部皮質」(Retrosplenial Cortex, RSC) 的大腦區域,發現了一群神奇的神經元,它們可能是解開這個謎團的關鍵 。
這些細胞被稱為 「自我中心邊界細胞」(Egocentric Boundary Cells, EBCs) 。
它們的工作很專一:當動物(例如老鼠)的「特定方向」和「特定距離」有牆壁(邊界)時,它們就會開始瘋狂發送訊號 。
科學家發現,這些細胞主要有三種類型 :
● 近端 EBC (Proximal): 只有當牆壁很近時才活化。例如,「左邊 10 公分有牆!」。
● 遠端 EBC (Distal): 只有當牆壁很遠時才活化。例如,「右前方 80 公分有牆!」。
● 反向 EBC (Inverse): 隨時都在活化,除非牆壁太近了,它才會「安靜」下來 。
這簡直就像大腦內建的「倒車雷達」!
但這也帶來一個更大的問題:這些精確的「雷達細胞」是天生就設定好的?還是我們的大腦透過「學習」自己安裝的? 這就是這篇新研究試圖回答的核心問題。
主要發現:用AI「養」出一個大腦
來自澳洲和美國的科學家們決定做一個大膽的實驗:他們能不能在電腦裡「養」出這些 EBCs?
實驗這麼做:
1. 創造一個「虛擬老鼠」: 他們建立了一個 1.25 x 1.25 公尺的虛擬方盒子 ,然後寫程式讓一隻「虛擬老鼠」在裡面隨機亂逛 。
2. 裝上「眼睛」: 這隻老鼠有一顆 170 度的廣角攝影機當作眼睛,模擬老鼠的寬廣視野 。
3. 打造「AI 大腦」: 這是最關鍵的一步。他們設計了一個神經網路模型,這個模型遵循一個非常簡單的學習規則,稱為 「稀疏編碼」(Sparse Coding) 。
「稀疏編碼」是什麼?想像你有一整個團隊(大腦皮質)要處理一件複雜的任務(分析眼前的畫面)。稀疏編碼的規則是:「不行所有人都上!一次只能派幾個『專家』出馬。」
這個規則會迫使網路中的每一個「神經元」都必須「專精」於一項特定任務。
令人驚奇的結果:
科學家們把虛擬老鼠「眼睛」看到的幾萬張第一人稱畫面,全部餵給這個 AI 大腦 。他們沒有下任何指令,只是讓它自己「看」和「學」。結果,這個 AI 大腦的「神經元」... 竟然自己學會了!AI 神經元自動分工,變成了三種不同的 EBCs:近端的、遠端的、和反向的 。牠們的特性,跟真實老鼠大腦中測量到的細胞幾乎一模一樣 !
附圖展示了真實老鼠大腦的神經數據(左)與 AI 模擬結果(中、右)的驚人相似性:
● 左欄:真實實驗數據 (Experimental) 記錄自老鼠大腦中負責導航的「後壓部皮質 (RSC)」。
○ 雷達圖(上): 顯示細胞對各個方向(前 F、後 B、左 L、右 R)都有偏好。其中藍色代表來自老鼠右腦的數據,黃色則來自左腦,顯示這種導航能力在雙側大腦是對稱且平衡的。
○直方圖(下): 橫軸為「偏好距離」,可以看到大部分細胞集中在偵測 5-20 公分內的近距離邊界,這正是文章提到的「近端 EBC」。
● 中欄:原始視覺特徵 (Raw Visual, RV) 這是 AI 直接從攝影機畫面中提取出的「初階資訊」。雖然已經具備了偵測方向與距離的雛形,但數據較為散亂,且對特定方向(如右前方)有明顯的雜訊。
● 右欄:深層學習模型 (V1-RSC) 這是經過兩層神經網路(模擬從視覺一區 V1 到後壓部皮質 RSC)處理後產生的「人工神經元」。你可以發現,它的分佈變得非常精簡且對稱,不論是方向偏好還是距離曲線,都與左欄的「真實大腦」極其相似。
💡 讀圖小撇步: 中欄 (RV) 就像是大腦看到的「原始草稿」,而右欄 (V1-RSC) 則是經過大腦過濾雜訊、精煉後的「精確雷達」。這證明了只要有簡單的學習規則,AI 就能自己長出跟生物一樣強大的導航直覺。
解開「背後之謎」:
這項研究最令人震驚的發現,還不是它成功了,而是它解開了一個長久以來的悖論。科學家在真實老鼠大腦中,一直很困惑地發現:有些 EBCs 會在「老鼠背後有牆」時活化 。這太奇怪了!老鼠的眼睛長在前面,牠們又沒有後照鏡,是怎麼「看」到背後的牆的?
過去,人們猜測這可能需要「記憶」或「方向感」的輔助。但這項新研究的模型,只用了「純視覺」資料 。令人難以置信的是,這個 AI 大腦同樣學會了「感知背後」的細胞 !
牠是怎麼辦到的?
答案是:推論 (Inference)。
AI大腦透過稀疏編碼的學習,變得非常聰明。它從眼前的畫面中學到了一個統計規律:「如果我眼前看到『左前方的遠牆』和『右前方的遠牆』以某個角度在遠處交會,那麼我背後 10 公分處,極有可能正貼著一面牆。」大腦不需要「看見」背後的牆,它只需要從眼前的線索「推斷」出牆的存在。也就是說即使使用單眼視覺(與真實老鼠的雙眼視覺不同),AI大腦仍能學會部分『感知背後』的細胞!不過研究者也發現,在 170 度視野下,模型產生的『背後細胞』比例仍低於真實老鼠大腦,顯示真實大腦可能整合了更多感官信息(如鬍鬚觸覺、記憶)來完成這項任務。
最終測試:換個新地圖
為了證明 AI 不是靠「死背」這個方盒子地圖,研究人員把這個已經訓練好的 AI 大腦,丟到一個全新的環境中——例如一個圓形競技場,或一個更大的方盒子 。
他們沒有重新訓練 AI。結果,那些 EBCs 細胞立刻開始工作,在新環境中完美地偵測牆壁 。
這證明了 AI(以及我們的大腦)學到的不是一張「地圖」,而是一套「導航規則」—— 一套可以適用於任何陌生環境的、強大的「環景雷達」系統。
應用場景:從 AI 到 VR
這項研究不僅是神經科學的勝利,也為 AI 發展提供了藍圖:
1. 更聰明的機器人: 未來的掃地機器人、救災機器人或工廠裡的無人搬運車,可能不再需要預先載入昂貴的 3D 地圖。我們可以讓它們像這隻虛擬老鼠一樣,在陌生環境中「自由探索」,靠著「稀疏編碼」的學習,自己「長」出 EBCs,學會如何靈活導航。
2. 更真實的虛擬實境 (VR): 許多人在玩 VR 時會感到頭暈不適,部分原因是大腦的「預期」(我應該在移動)和眼睛看到的「現實」(我還在客廳)產生衝突。理解大腦如何建立第一人稱的空間感,可以幫助開發者設計出更符合大腦直覺的 VR 環境,大幅減少暈眩感。
未來展望:下一步是什麼?
當然,這個模型目前還是簡化的 。
● 侷限: 真實的老鼠有兩隻眼睛(立體視覺),而模型只有一顆 。此外,老鼠還會用牠的鬍鬚、聽覺來輔助定位,這些模型都沒有包含 。這也許能解釋為什麼模型中 EBCs 的比例,比真實大腦高(因為 AI 神經元沒別的事可做)。
● 潛力: 這項研究最棒的貢獻,是證明了一個看似複雜無比的大腦功能(空間導航),可以從一個非常簡單的學習規則(稀疏編碼)和原始的感官資料(視覺)中「自發地湧現」。
● 願景: 未來的研究者將會打造更複雜的模型,例如給 AI 裝上兩顆「攝影機」模擬立體視覺 ,或者加入「鬍鬚」的觸覺訊號。我們正一步步接近完整複製大腦 GPS 的那天。
📚 術語小辭典
1. 自我中心 (Egocentric): 以「我」為中心的視角。例如:「鑰匙在我左手邊。」
2. 異我中心 (Allocentric): 以上帝視角或地圖為中心的視角。例如:「鑰匙在客廳桌子上。」
3. 自我中心邊界細胞 (EBCs): 大腦中一種神經元,專門偵測「我」周圍特定方向和距離的牆壁或障礙物 。
4. 稀疏編碼 (Sparse Coding): 一種大腦(或 AI)的學習策略,強調「效率」。要求在處理任何資訊時,只動用最少、最專業的神經元 。
5. 壓後皮質 (RSC): 大腦中負責空間導航和記憶的重要區域,也是 EBCs 被發現的地方 。
撰寫者:林樂瑞
參考資料:Lian, Y., Williams, S., Alexander, A. S., Hasselmo, M. E., & Burkitt, A. N. (2023). "Learning the vector coding of egocentric boundary cells from visual data" The Journal of Neuroscience, 43(28), 5180–5190.



留言
張貼留言