用深度學習「矯正」顯微鏡像差:AI 讓科學家看得更清楚
拿起手機「喀擦」一聲,一個簡單的動作就能記錄眼前的美景。然而,拍出來的影像卻因為手抖模糊不清,讓人受挫。你有沒有過這樣的經驗呢?科學家用顯微鏡觀察樣本的時候,也常常遇到影像模糊的問題。不過他們不是因為手抖,而是因為光線「迷路」了!
使用顯微鏡的時候,光線會透過樣本、穿過一連串鏡片,進到人的眼裡。然而,當樣本是細胞或組織的時候,光線需要穿過的介質有很多種。每種介質的折射率不同,光線匯聚的目的地不一樣,就會形成有像差(aberration)的模糊影像。當拍攝的樣本越厚、樣本的內容物越複雜,像差會更嚴重。
生物學家常常使用顯微鏡觀察樣本,特別是螢光顯微鏡。科學家將樣本染上螢光染劑,放到顯微鏡底下觀察。不同的染劑會對不同的構造有反應,方便觀察樣本中不同的構造。當影像存在像差時,影像辨識會變得困難,進而造成科學家的困擾。
想要去除像差,其中一個方法是自適應光學(AO)。AO會先測出光線被扭曲後的形狀,改變鏡面形狀(相位)來補償波前,將光線矯正回正確的方向。這種物理矯正的方式相當有用,但也非常昂貴,且樣本需要長時間暴露在光線下,容易受損。
因此,我們在這裡介紹一個新的方法:用深度學習模型(Deep learning model)來矯正影像的像差。Guo等人於2025年發表〈Deep learning-based aberration compensation improves contrast and resolution in fluorescence microscopy〉,提出DeAbe模型,用以矯正折射率不同造成的像差。
研究者將DeAbe用於使用phalloidin染色的PtK2 cells細胞樣本,比較三種組別:
(i) 原始影像:使用顯微鏡拍攝,未經過矯正的影像
(ii) 使用DeABe修正後的影像
(iii) 使用AO修正後的影像
其中,原始影像受到像差影響,較難判斷細肌動蛋白網、絲狀肌動蛋白和應力纖維等結構。使用DeAbe矯正後,可以復原這些結構,且對比度跟解析度接近ground truth(使用AO修正後的影像)。
研究者使用DeAbe進行更多應用測試,包括:
使用倒置選擇性平面照明顯微鏡(iSPIM)觀察線蟲胚胎
使用旋轉盤共軛焦顯微鏡(Spinning-disk confocal)觀察線蟲
使用即時結構化照明顯微鏡(Instant SIM)觀察 NK-92 細胞
使用雙光子顯微鏡(Two-photon excitation microscopy, 2PEM)觀察活體小鼠心臟組織
在這些測試中,DeAbe修復像差的表現,接近使用AO修復影像的表現。這讓研究者能更好地觀察細胞,也讓後續分析(例如血管取向統計、細胞分割)更準確。
筆者認為,現在有許多用AI分析影像的應用。在這些影像辨識模型中,如何維護影像的品質,是模型成功的關鍵因素之一。在螢光顯微鏡這個領域,這篇論文提供了新的可能性,讓科學家更方便觀察影像,進一步評估影像背後的珍貴價值。
聲明:本文經過ChatGPT5進行潤飾
撰文:許芝瑜
參考資料:Guo, M., Wu, Y., Hobson, C. M., Su, Y., Qian, S., Krueger, E., ... & Shroff, H. (2025). Deep learning-based aberration compensation improves contrast and resolution in fluorescence microscopy. Nature Communications, 16(1), 313.




留言
張貼留言