為什麼神經科學需要Foundation Models與生成式AI?
ChatGPT、Gemini、AI繪圖、或一句話生成影片,讓我們整理資料或實現創意越來越方便。但你可能不知道,這股AI浪潮除了實現這些功能外,還在悄悄改變一個神經科學中根本的問題——我們到底能不能讀懂大腦? 大腦資料,其實比你想像的還爆量。現代神經科學研究早就不是只看顯微鏡了。科學家可以同時記錄上萬顆神經元的放電、掃描整個大腦的功能影像、量測腦波,甚至觀察人類在聽音樂、看電影、說話時的大腦活動。 問題是,這些資料多到讓傳統的分析模式力不從心。因此,研究團隊探討了大型基礎模型(Foundation Models)與生成式人工智慧(生成式AI)在神經科學領域中的突破性應用。 先來理解什麼是Foundation Models?你可以把Foundation Models想成已經學過世界的AI。它們不是為單一特定任務設計,而是先在大量未標記資料上學習世界的結構,再被拿去解各種問題。 關鍵技術有兩個: ● 嵌入(Embedding):把複雜訊號(語言、影像、腦波)轉成有意義的向量 ● 自我監督學習(SSL):不用人工標答案,也能從資料中學規律 再來是生成式AI,它不只能分析,還能重建大腦內容。傳統神經科學多半只能回答這個腦區有活動代表什麼。生成式AI則更進一步,開始嘗試:利用fMRI重建人看到的影像、從腦訊號合成語音或音樂,或者利用腦機介面把想說但說不出口的話轉成文字。做法通常是先把腦訊號轉成嵌入向量 ,再交給已經學習過的生成模型,產生對應內容。 為什麼這對神經科學很重要?它解決了三個核心問題: 1. 資料太少怎麼辦? 預訓練模型可以「先學別人的資料,再學你的」,小樣本也能做研究。 2. 不同實驗怎麼對齊? 嵌入空間讓EEG、fMRI、語音、行為有機會放進同一個座標系。 3. 怎麼接近真實認知? 例如Transformer這種序列模型,讓研究不再只看單一刺激,而能處理故事、音樂、行為等這種連續經驗。 不過目前的AI模型,也還不夠像大腦。研究團對也提醒了一件重要的事,現在的人工神經元,其實非常簡化,大多忽略了樹突計算、神經振盪、細胞層級結構。未來真正有潛力的方向,應該是把神經科學對大腦的理解,反過來教給AI。 *聲明:本文使用ChatGPT輔助編輯* 撰稿人:呂菁菁 原始論文:Wang, R., and Chen, Z.S. (2025). Large-scale foundat...







