跳到主要內容

發表文章

精選

液體狀態機左右互打越練越強?(液體狀態機與強化式學習)

前言: 大家好,今日要介紹的文章為 2025 由 Krenzer 與 Bogdan 等人,刊登於 Frontiers 期刊的文章【Reinforced liquid state machines—new training strategies for spiking neural networks based on reinforcements】,主要是在探討回饋機制對於類神經網路的影響,作者提出了一個有趣的框架把 Liquid State Machine(液體狀態機)搭配 Reinforcement Learning(強化式學習) 觀察在各種回饋情形下,RLSM(Reinforced liquid state machines)架構是否可以優於無監督式學習的 LSM?我們開門見山先講結論, 在把語音數字(0–9,英/德文)轉成脈衝事件的聽覺資料集 Spiking Heidelberg Digits(SHD)上是可以優於無監督式學習的 LSM!接下來就來一起看看強化式的液體狀態機是如何處理這些任務的吧!我會先簡單講解一些強化式學習的概念讓大家比較好帶入與了解,液體狀態機的部分可以去觀看我上一篇的《 脈衝神經網路可以自己分類?--液體狀態機與無監督式學習 》的 LSM 背景處。 ----------------------------------------------------------------------------------------------- 強化式學習: 提到強化式學習(RL)時,我們可以用一種簡單的方式理解,相信大家都有玩電腦遊戲的經驗吧,我們把強化學習(RL)想成「玩遊戲的練功系統」:電腦(代理人)在環境裡嘗試各種動作,拿到分數(回饋),慢慢摸索出能「長期拿高分」的做法(策略)。它不告訴你正解,只告訴你做得「好不好」,所以特別適合需要連串決策、結果常延遲的問題,例如機器人控制、推薦系統或自動駕駛,架構觀念如(圖一:RL基礎架構源)。 然而這種看似沒有固定答案的學習模式為什麼會被大家使用呢?原因很好理解,其實是因為現實世界很少有完整標籤資料,但仍可以觀察到行為後果;就如同研究神經科學時,透過行為模式去回推背後的生理機制。RL 同樣在互動中一邊探索一邊學,學到做什麼會更好,也強調模式選擇後的長期報酬,避免只為眼前利益而做出短視決策。 RL 發...

最新文章

從機器人到大腦:為何大腦的 GPS 也使用對稱性?

高效調整:讓人工智慧學會自己調參數

當突觸學會等待:海馬的秒級學習與信用分配之謎

行為序列架構分析教師學生行為

Neuromorphic to me

機器人要開始學會如何感覺了:用液態狀態機,讓 BAXTER 拿筆畫出漂亮的方形

樂於「彎來彎去」的祕密:昆蟲大腦節奏如何啟發智慧機器人 ——從蟲子的「Z字形探索」到自適應移動大未來

用深度學習「矯正」顯微鏡像差:AI 讓科學家看得更清楚

蒼蠅的倒掛絕技:如何在天花板上完美著陸

重力引導的大腦指南針:老鼠腦中的三維導航祕密