為什麼神經科學需要Foundation Models與生成式AI?

ChatGPT、Gemini、AI繪圖、或一句話生成影片,讓我們整理資料或實現創意越來越方便。但你可能不知道,這股AI浪潮除了實現這些功能外,還在悄悄改變一個神經科學中根本的問題——我們到底能不能讀懂大腦?

大腦資料,其實比你想像的還爆量。現代神經科學研究早就不是只看顯微鏡了。科學家可以同時記錄上萬顆神經元的放電、掃描整個大腦的功能影像、量測腦波,甚至觀察人類在聽音樂、看電影、說話時的大腦活動。

問題是,這些資料多到讓傳統的分析模式力不從心。因此,研究團隊探討了大型基礎模型(Foundation Models)與生成式人工智慧(生成式AI)在神經科學領域中的突破性應用。

先來理解什麼是Foundation Models?你可以把Foundation Models想成已經學過世界的AI。它們不是為單一特定任務設計,而是先在大量未標記資料上學習世界的結構,再被拿去解各種問題。

關鍵技術有兩個:
● 嵌入(Embedding):把複雜訊號(語言、影像、腦波)轉成有意義的向量
● 自我監督學習(SSL):不用人工標答案,也能從資料中學規律

再來是生成式AI,它不只能分析,還能重建大腦內容。傳統神經科學多半只能回答這個腦區有活動代表什麼。生成式AI則更進一步,開始嘗試:利用fMRI重建人看到的影像、從腦訊號合成語音或音樂,或者利用腦機介面把想說但說不出口的話轉成文字。做法通常是先把腦訊號轉成嵌入向量 ,再交給已經學習過的生成模型,產生對應內容。

為什麼這對神經科學很重要?它解決了三個核心問題:
1. 資料太少怎麼辦?
預訓練模型可以「先學別人的資料,再學你的」,小樣本也能做研究。
2. 不同實驗怎麼對齊?
嵌入空間讓EEG、fMRI、語音、行為有機會放進同一個座標系。
3. 怎麼接近真實認知?
例如Transformer這種序列模型,讓研究不再只看單一刺激,而能處理故事、音樂、行為等這種連續經驗。

不過目前的AI模型,也還不夠像大腦。研究團對也提醒了一件重要的事,現在的人工神經元,其實非常簡化,大多忽略了樹突計算、神經振盪、細胞層級結構。未來真正有潛力的方向,應該是把神經科學對大腦的理解,反過來教給AI。

*聲明:本文使用ChatGPT輔助編輯*


撰稿人:呂菁菁


原始論文:Wang, R., and Chen, Z.S. (2025). Large-scale foundation models and generative AI for BigData neuroscience. Neuroscience Research, 215, 3–14.

留言