論文の概要: Automatic Cerebral Vessel Extraction in TOF-MRA Using Deep Learning
- arxiv url: http://arxiv.org/abs/2101.09253v1
- Date: Fri, 22 Jan 2021 18:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-20 21:09:51.175755
- Title: Automatic Cerebral Vessel Extraction in TOF-MRA Using Deep Learning
- Title(参考訳): 深層学習を用いたTOF-MRAにおける脳血管の自動抽出
- Authors: V. de Vos, K.M. Timmins, I.C. van der Schaaf, Y. Ruigrok, B.K.
Velthuis, H.J. Kuijf
- Abstract要約: 船体セグメンテーションのための2次元および3次元U-Netを訓練するためのデータ拡張および選択法の性能について検討した。
Dice similarity Coefficient (DSC), Modified Hausdorff Distance and Volumetric similarity を用いて, 予測画像と対話的に定義された接地真実を比較検討した。
2Dと3DのU-Netはどちらも、強化されていない他の実験と比べ、ガウスのぼかし、回転、反転で最高のセグメンテーション性能を持っていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning approaches may help radiologists in the early diagnosis and
timely treatment of cerebrovascular diseases. Accurate cerebral vessel
segmentation of Time-of-Flight Magnetic Resonance Angiographs (TOF-MRAs) is an
essential step in this process. This study investigates deep learning
approaches for automatic, fast and accurate cerebrovascular segmentation for
TOF-MRAs. The performance of several data augmentation and selection methods
for training a 2D and 3D U-Net for vessel segmentation was investigated in five
experiments: a) without augmentation, b) Gaussian blur, c) rotation and
flipping, d) Gaussian blur, rotation and flipping and e) different input patch
sizes. All experiments were performed by patch-training both a 2D and 3D U-Net
and predicted on a test set of MRAs. Ground truth was manually defined using an
interactive threshold and region growing method. The performance was evaluated
using the Dice Similarity Coefficient (DSC), Modified Hausdorff Distance and
Volumetric Similarity, between the predicted images and the interactively
defined ground truth. The segmentation performance of all trained networks on
the test set was found to be good, with DSC scores ranging from 0.72 to 0.83.
Both the 2D and 3D U-Net had the best segmentation performance with Gaussian
blur, rotation and flipping compared to other experiments without augmentation
or only one of those augmentation techniques. Additionally, training on larger
patches or slices gave optimal segmentation results. In conclusion, vessel
segmentation can be optimally performed on TOF-MRAs using a trained 3D U-Net on
larger patches, where data augmentation including Gaussian blur, rotation and
flipping was performed on the training data.
- Abstract(参考訳): 深層学習アプローチは、脳血管疾患の早期診断とタイムリーな治療に役立つ可能性がある。
Time-of-light Magnetic Resonance Angiographs (TOF-MRAs) の正確な脳血管分割は、この過程において重要なステップである。
本研究では,TOF-MRAの自動,高速,高精度な脳血管セグメンテーションのためのディープラーニングアプローチについて検討した。
a) 血管分割のための2dおよび3d u-net訓練のためのデータ拡張および選択手法の性能を, a) 拡張なし, b) ガウス的ボケ, c) 回転とフリップ, d) ガウス的ボケ, 回転とフリップ, e) 異なる入力パッチサイズで検討した。
全ての実験は2Dと3DのU-Netのパッチトレーニングによって行われ、MRAのテストセットで予測された。
ground truthはインタラクティブなしきい値と領域成長法を用いて手動で定義した。
Dice similarity Coefficient (DSC), Modified Hausdorff Distance and Volumetric similarity を用いて, 予測画像と対話的に定義された接地真実を比較検討した。
テストセット上のすべてのトレーニングされたネットワークのセグメンテーション性能は良好であり、dscスコアは 0.72 から 0.83 である。
2Dと3DのU-Netはどちらも、強化されていない他の実験と比べ、ガウスのぼかし、回転、反転で最高のセグメンテーション性能を持っていた。
さらに、より大きなパッチやスライスをトレーニングすることで、最適なセグメンテーション結果が得られる。
以上の結果から,TOF-MRAでは,ガウスのぼかし,回転,旋回などのデータ拡張を行う3次元U-Netを用いて血管分割を最適に行うことができた。
関連論文リスト
- Intensity-Spatial Dual Masked Autoencoder for Multi-Scale Feature Learning in Chest CT Segmentation [4.916334618361524]
本稿では,ISD-MAE (Intensity-Spatial Dual Masked AutoEncoder) という改良手法を提案する。
このモデルは、二重ブランチ構造とコントラスト学習を利用して、組織の特徴と境界の詳細を学習する能力を強化する。
以上の結果より, ISD-MAEは2次元肺炎および縦隔腫瘍セグメンテーションにおいて他の方法よりも有意に優れていた。
論文 参考訳(メタデータ) (2024-11-20T10:58:47Z) - Attention and Pooling based Sigmoid Colon Segmentation in 3D CT images [11.861208424384046]
シグモイド結腸は憩室炎を治療するための重要な側面である。
本研究はCT画像からシグモイド結腸を抽出するための新しいディープラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-09-25T04:52:46Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - COVID-19 identification from volumetric chest CT scans using a
progressively resized 3D-CNN incorporating segmentation, augmentation, and
class-rebalancing [4.446085353384894]
新型コロナウイルスは世界的なパンデミックの流行だ。
高い感度のコンピュータ支援スクリーニングツールは、疾患の診断と予後に不可欠である。
本稿では,3次元畳み込みニューラルネットワーク(CNN)に基づく分類手法を提案する。
論文 参考訳(メタデータ) (2021-02-11T18:16:18Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。