講演抄録/キーワード |
講演名 |
2022-05-20 16:40
2.5DデフォーマブルコンボリューションCNNを用いた3D医用画像のセグメンテーション ○奥村裕也・工藤博幸・滝沢穂高(筑波大) |
抄録 |
(和) |
深層学習を用いた3D医用画像セグメンテーションの精度を向上させる有効な手法として、臓器構造の個人差や位置ずれを変位ベクトル場を用いて吸収することが可能なデフォーマブルコンボリューションCNNを用いるものが存在するが、2Dから3Dに自然に拡張すると変位ベクトル場の計算や保存のため計算量が膨大になり非実用的である。本研究では、この問題を解決する手法として、xy水平断面、yz水平断面、xz水平断面の2D断面でデフォーマブルコンボリューションCNNでセグメンテーションを行い、その結果を多数決投票により統合して3Dセグメンテーション結果を得る、いわば2.5Dの手法を提案する。腹部CT実画像データセットを用いた実験の結果、デフォーマブルコンボリューションの導入により提案手法の精度が通常の深層学習を用いた手法と比較して優れ、かつ2.5Dの手法にしたため計算量は現実的なものに収まった。 |
(英) |
An effective method to improve the accuracy of 3D medical image segmentation using deep learning is to use deformable convolutional CNN, which can absorb individual differences in organ structure and misalignment using displacement vector fields. However, the natural extension from 2D to 3D is impractical due to the huge amount of computation required to calculate and store the displacement vector fields. In this study, we propose a 2.5D method to solve this problem, in which a deformable convolutional CNN is used to perform segmentation in 2D cross sections of xy, yz, and xz horizontal sections, and the results are integrated by majority voting to obtain 3D segmentation results. Experimental results on a real CT image dataset of the abdomen show that the proposed method is more accurate than conventional deep learning methods due to the introduction of deformable convolution, and the computational complexity of the proposed method is realistic for a 2.5D method. |
キーワード |
(和) |
医用画像 / 深層学習 / 畳み込みニューラルネットワーク / 三次元医用画像 / コンピュータ支援検出システム / 解剖学的構造の自動認識・検出 / / |
(英) |
CT images / Deep learning / Convolutional Neural Networks / 3D CT images / Computer-aided Detection Systems / Automatic recognition and detection of anatomical structures / / |
文献情報 |
映情学技報 |
資料番号 |
|
発行日 |
|
ISSN |
|
PDFダウンロード |
|