登入
facebook
google-plus
twitter
linkedIn
活動看板
產經情報
廠商名錄
知識分享
需求快遞
技術供應
網站連結
會員專區
聯絡AOIEA
訂閱電子報
facebook
google-plus
twitter
linkedIn
知識分享
首頁
>
知識分享
>
技術專欄
技術專欄
會員ppt
字級設定:
大
中
小
收藏
.
.
U-Net模型強化應用於脊椎X光影像語意切割技術
建立日期:2020/11/16
作者:
量測中心/劉曉薇、賴程威、周森益
出處:
2020 AOI論壇與展覽
內容:
本篇為「2020 AOI論壇與展覽」論文集,摘要如下:
醫學影像的語意切割技術,對於我們更準確的去判定疾病目前的嚴重程度可謂十分的重要,本文延續了 2019 年 AOI 論壇與展覽[7]投稿之內容,深化影像中語意切割之研究,針對編碼器與解碼器設計相關網路架構,並且修改 U-Net 測試模型之超參數驗證實驗模型之切割準確性。
根據實驗,在利用資料擴充(data augmentation)搭配 adam 優化器、利用 categorical_crossentropy 以及儲存最低驗證損失(validation loss)的情況下利用資訊融合的 unet,在平均表現中可以得到脊椎椎節四邊形平均交聯集比(mean Intersection over Union; mIOU+)為 75.12 %,醫院二的病例中 mIOU+ 為 74.21 %,此為所有實驗結果中表現最佳;然而如果是儲存最高驗證精度(validation accuracy)的條件下則是利用了注意力機制以及 focal loss[10]的架構,可以得到 mIOU+ 為 74.34% 的結果;除此之外,也可以得到在醫院一的病例中所有實驗下 mIOU+ 為 79.43% 的最佳結果。
檔案下載:
全文下載
下載次數:
53
分享本訊息:
分享到 facebook
分享到 google+
分享到 twitter
分享到 linkedin
回上頁