人工智慧與大數據下神經科學的重要性

人工智慧?通用人工智慧?你能想像在機器上複製出人腦嗎?而「大數據」的潮流下,真的是改變神經科學項目的真理嗎?現已近2023了,而這年將會是HBP人腦項目的最後一年,但這項以瞭解人類大腦及其疾病,由此推動大腦醫學和計算技術發展歐洲最大資助計畫之一的項目卻尚無舉世驚人的成果,在這項複雜的挑戰中,人腦是多達860億個神經元,各個神經元平均有著7000多條突觸連接的巨大數據,在這電腦處理量能極限的條件下,全腦的「全連接」模型可說是不可能的任務,但全腦的數據模型卻是有可能完成的。(圖一)
圖一 神經元示意圖,神經元都有一個細胞體、軸突和樹突

而在這背景下,就會提到「大數據」,大數據究竟是什麼涵意呢? 2001 年,早在此術語還沒有進入字典的時候, Doug Laney就將大量的資料集所帶來的挑戰描述為“由三個屬性的同時擴展所帶來的挑戰”:“數量”(volume)、“速度”(velocity)和“多樣性”(variety)(圖二),而IBM又增加“真實性”(veracity)稱為4V模型,更甚Intel設定了大數據的界線為300TB的數據,另方面微軟則是稱其為“分析大量的資料集的技術。資料可能是海量的;分析才是最重要的”,那大家怎麼認為呢?
圖二 Doug Laney的大數據3V模型

毫無疑問的,現在「大數據」肯定有個通用的觀點就是廣而大的數據規模,如AIBS在研究和映射小鼠大腦7500萬個神經元的過程中,就已經積累了1.8PB的資料量。而腦模擬項目或許最廣為人知的就是Henry Markram的用來模擬老鼠大腦皮層柱的 "藍腦計畫",可是隨著電腦技術增進,科學家們以廣泛接受了機器模擬(減少部分真實情況下的因素,例如Hodgkin和Huxley模型,圖(三)),並且可望透過擴大模擬的規模的行為來產生洞察力,得以擴增對於腦的理解,而這種蜂群科學(擴大研究人員規模,過大數據量能)可說是大數據的終極論點,便是“資料收集和電腦分析佔據了核心地位。研究和實驗已經退出了人們的視野”。
圖三  H-H model電路示意圖

接著我們回到人工智慧的討論,通用人工智能,真正的仿生人是可能短期內看見的未來嗎?隨著近年ANI這種特定功能的人工智慧普及並且效能極佳的步入人們的生活,舉凡車輛控制、搜尋系統、機械養殖場、生態控制溫室、遊戲NPC與遊戲平衡分析,人們的食衣住行育樂衣,無一沒有AI的痕跡,這種ANI的人工智慧蓬勃發展下,科學家們野心勃勃更甚想研究出類人的通用人工智慧,將有與人相同智慧並且學習,如同新物種一樣,甚至都開始在擔心AGI倫理與限制的問題了,但這真的是可見的光景嗎?最令人津津樂道拿來說嘴的或許就是Watson或是AlphaGo的成就了吧,但明擺著的缺陷卻是不可忽視的,不論是Watson Health的替代醫生的野心止步於AI助手,AlphaGo這種深度強化學習架構下的神經網路,似乎已經很接近人們所謂的學習,可是這個系統終究還是有著缺陷,靈活性的不足以及對大量數據洪流的理解不足,終會導致其通用人工智慧的可行性是無法達成的。一個小故事就可以應證數據洪流的「理解」的重要性,H1N1爆發期,google透過30億次搜索查詢,已有流感癥狀的人傾向於在互聯網上搜索有關流感的資訊為條件研究人員可以比衛生當局更快地繪製流感傳播圖,貌似是當時可針對控制疫情的壯舉,然後事後我們就可以透過該模型報告的流感樣疾病就診次數是疾病控制和預防中心的兩倍中發現,該模型可能包括與流感相關的季節性數據,它的真實性與效能便大打折扣, 理解數據是一項重點,但開發者都尚不能自己完善理解所有知識技能了,要如何在數據洪流中為AI指明釐清世界的道路呢?

在科學中大數據研究的成功是眾所周知的事,它是數據,數據便是觀察,而觀察就是經驗的積累,但缺乏理論與理解的經驗值得我們去追求嗎? 正如伊曼紐爾·康得所說,沒有理論的經驗是盲目的。


撰文:徐楷昕


參考文獻
1. 在一台電腦上複製出一個人類大腦,大數據研究會統治神經科學嗎?https://m.thepaper.cn/baijiahao_7267118
2. Why general artificial intelligence will not be realized | Humanities and Social Sciences Communications (nature.com) https://www.nature.com/articles/s41599-020-0494-4

留言