透過深度學習進行3D細胞分割,助於癌症診斷和病理學圖像分析

2022/12月AI在自然語言處理有重大的發表與突破,然而AI其實在各大領域也都大放異彩,其中一個對人類健康也有重大關係的領域:病理學影像分析。過去病理學影像已有成熟的2D影像分割技術,可以將各種組織與細胞進行標註,提供醫療人員快速審視,但是逐層影像分割對於立體的影像在分割的準確率上依舊無法達到更高的水準,於是推出3D影像分割模型。

3DCellSeg是用於 3D 細胞分割的兩階段輕量級、快速且穩健的模型(圖1)。
第一階段是語義分割,輸入是 3D 細胞圖像,將會輸出三個遮罩,分別是背景、細胞膜、細胞內部。
第二階段是基於這三個模型預測輸出的遮罩進行實例分割,目的是標註出細胞本體,並且給予不同顏色(編號),實例分割的結果通常方便於我們計算細胞的總量。
圖1 模型架構與實驗流程

3DCellSeg 的表現上明顯優於過往的3D影像切割模型(圖2)
圖2.a中可以看到 Adapted Rand Error (ARE)分數越低越好,3DCellSeg為第二名。(*ARE分數 = 1-maxFscore(Rand Index))
右側Variation of Information (VOI) 分數越高越好,因Jaccard Index (JI)的計算方式為預測的範圍與真實答案交集/聯集,可見3DCellSeg在此量化分析中獲得最高分。

圖2.b和c個別是使用不同的數據集,對多種3D切割模型進行比較,3DCellSeg與其他方法最大的差異是能夠解決細胞聚集的問題,大多數模型在細胞聚集的位置常會發生預測失準以及模糊問題,但3DCellSeg可以較好的解決這項問題,仰賴於研究團隊自行定義的損失函數(圖3)
圖2 性能比較

圖3 3DCellSeg的損失函數

從此篇論文可以看到透過改良訓練模型時的損失函數,對結果有顯著的改善,AI的訓練與學習的運作模式是單純的計算,訓練時產生的結果與答案之間的誤差如果使用錯損失函數,會發現模型無法收斂或是結果不如預期。所以常聽過一句話:要和資料培養感情。意旨開發人員要非常熟悉手上的資料集,才能在開發過程中避開地雷,開發出一個有成效的模型。


撰文:許楷翊


參考文獻:
Wang, A., Zhang, Q., Han, Y. et al. A novel deep learning-based 3D cell segmentation framework for future image-based disease detection. Sci Rep 12, 342 (2022). https://doi.org/10.1038/s41598-021-04048-3

留言