跳到主要內容

發表文章

精選

被忽略的記憶拼圖─神經元的胞內可塑性與其計算模型

記憶的形成,過去大多強調在神經元之間的連結變強,因而形成所謂的細胞集團(cell assembly),然而近年有少數的神經科學家開始著眼於個別神經元的調節,也就是神經網路會讓單個神經元變得比較興奮或比較不興奮,以此來調控記憶的形成。 簡單來說可以試著想成交通網路地圖,每個城市(神經元)都是一個節點,城市和城市之間靠道路連結(神經連結)。過去研究發現城市之間的道路拓寬可以讓車流量變大(訊息量),然而過去缺乏了對城市內部的道路的關注,當城市內部的道路也拓寬的時候(神經元變得更容易被活化),”每一條”經過該城市的道路訊息也會有更大的流通量(而不是單一條道路)。來自德州農工電機部門的科學家發現將這個概念放進人工突波神經網路(spiking neural network)進行學習,會有助於神經網路的學習能力。 該篇研究是使用LIF神經元模型(每個神經元含有細胞膜電容、洩漏型的通道及其電阻),當上游神經元傳遞訊息(突波spike)進來的時候,神經元的胞內電位會上升,但會像是有裂縫的水壺,膜電位(水位)會隨著時間下降回到神經元靜止的電位。 作者假設神經元的平均發射突波(活化)的速率是固定的,而在沒有雜訊的狀況下,每個神經元最重要的工作就是最完整的傳遞上游神經元的訊號。利用訊息理論(information theory)分析,也就是要讓互訊息(mutual information)達到最高(I(Y,X)=H(Y)-H(Y|X))。透過數學運算推導,作者得出調整細胞內的電容和電阻的公式。讓每個細胞都能夠對應到上游進來的訊號,而有讓訊息最有效率的表達(如圖一)。 圖一、透過IP (intrinsic plasticity)的調整,神經元的激發速率的分布會符合指數分布,讓激發速率的期望值是固定的。 將此神經元的模型,放到液體狀態機(LSM)(圖二)的神經網路運算中,他們發現能夠更好的提高神經網路的分類能力。 圖二、液態狀態機(LSM),一種神經網路的架構,訊號從左邊進來,進到水庫(reservoir),再進到解讀層(readout layer)。其中水庫層的連結是由一定數量的興奮性和抑制性的神經元隨機相連。 筆者認為,儘管該研究所用的分類任務,原本的LSM即有很好的表現,但他們所用的理論分析很有意思,一個神經元本身的重要性,或許不亞於神經元彼此之間的連結。而神經元也被發現除了電訊號外,甚

最新文章

當果蠅在行走時,大腦是怎麼運作的?

用AI預測老鼠行為

動物平衡風險以及收益的機制

大黃蜂的飛行秘密:如何在障礙重重的世界中飛行

環境溫度影響活動與睡眠?

Different Strategies Modulate the Activity of Inhibitory VIP Neurons in Visual Cortex

整合物體及特徵點的層級定位與建圖

人類教AI,AI變聰明 : RLHF技術如何讓AI更懂你的心

老年可能需要更注重平衡

用改良的Lucas-Kanade演算法偵測大位移的光流