知識分享

U-Net模型強化應用於脊椎X光影像語意切割技術

建立日期:2020/11/16
  • 作者: 量測中心/劉曉薇、賴程威、周森益
  • 出處: 2020 AOI論壇與展覽
  • 內容: 本篇為「2020 AOI論壇與展覽」論文集,摘要如下:

    醫學影像的語意切割技術,對於我們更準確的去判定疾病目前的嚴重程度可謂十分的重要,本文延續了 2019 年 AOI 論壇與展覽[7]投稿之內容,深化影像中語意切割之研究,針對編碼器與解碼器設計相關網路架構,並且修改 U-Net 測試模型之超參數驗證實驗模型之切割準確性。

    根據實驗,在利用資料擴充(data augmentation)搭配 adam 優化器、利用 categorical_crossentropy 以及儲存最低驗證損失(validation loss)的情況下利用資訊融合的 unet,在平均表現中可以得到脊椎椎節四邊形平均交聯集比(mean Intersection over Union; mIOU+)為 75.12 %,醫院二的病例中 mIOU+ 為 74.21 %,此為所有實驗結果中表現最佳;然而如果是儲存最高驗證精度(validation accuracy)的條件下則是利用了注意力機制以及 focal loss[10]的架構,可以得到 mIOU+ 為 74.34% 的結果;除此之外,也可以得到在醫院一的病例中所有實驗下 mIOU+ 為 79.43% 的最佳結果。
  • 檔案下載:全文下載
  • 下載次數:53