「當你讀取我的思考,是否能重現我的體驗」類腦運算的逆向工程 - ESN 的無需標籤輸入重構
前言: 想像一個狀況,你回憶起小時候的暑假常在一個金黃色的稻田中奔跑,和煦的微風,刺眼的陽光撒在臉龐,腳底還有點濕黏,遺落在田中的橡膠拖鞋等。這些畫面的碎片透過大腦的連結、神經可塑性加固,讓你在長大後也能回憶起一些感受。一個聚餐中大家談論起小時候的體驗,身處田野的你與身處都市的他總幻想著對方的童年卻始終模糊地勾勒猜想出不一致的想像。如果我說,若知道大腦當時的狀態(參數、權重、神經元數量...)即可回推那時的輸入畫面與感受,逆解碼大腦這個操作聽起來很虛幻對吧?當然,我們對大腦還是一知半解,還無法完全了解透徹與模擬,但這篇來自 2026 的論文《Unsupervised Learning in Echo State Networks for Input Reconstruction 》對儲備池計算(Reservoir Computing)做了一個有趣且耐人尋味的研究,對輸入重構 IR提供了一些新想法。 迴聲狀態網路(Echo State Network, ESN)Reservoir Computing 的一種,長期扮演著一個觀察者的角色,它具備隨機且固定的內部結構,能將時序輸入映射至高維狀態空間,但其輸出端(Readout Layer)卻始終依賴一位「導師」——即監督式學習(Supervised Learning)所提供的目標信號,來告知網路其所見為何。這種設定在進行「輸入重構」(Input Reconstruction)任務時顯現出一種邏輯上的冗餘,如果網路的任務僅是還原驅動自身的輸入信號,而我們在訓練階段又必須餵給它同樣的信號作為答案,那麼這種學習過程是否真的觸及了系統的內在動力學?而近期關於 ESN 數學基礎的研究指出,只要我們不再將儲備池視為全然不可知且無法解釋的「黑盒子」,這些網路其實具備某種程度的「本體感覺」,能在完全缺乏外部標籤的情況下,僅憑內部的迴聲邏輯找回消失的輸入。 研究動機: 我們知道 RC 的效能主要基於兩項時間序列處理的特性,在 RC 內部對輸入時間序列的「可保存性(preservability)」與「可轉換性(transformability)」,而在輸入重建(IR)中輸入時間序列本身就作為目標,是 RC 中最簡單卻也最基礎的任務之一。儘管他很簡單,但 RC 中的 IR 已足以用來學習一個能產生輸入時間序列的動態系統,所以此研究專注於 IR,...






