論文の概要: Deep Implicit Statistical Shape Models for 3D Medical Image Delineation
- arxiv url: http://arxiv.org/abs/2104.02847v1
- Date: Wed, 7 Apr 2021 01:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 01:10:50.583168
- Title: Deep Implicit Statistical Shape Models for 3D Medical Image Delineation
- Title(参考訳): 3次元医用画像記述のための深部統計的形状モデル
- Authors: Ashwin Raju, Shun Miao, Chi-Tung Cheng, Le Lu, Mei Han, Jing Xiao,
Chien-Hung Liao, Junzhou Huang and Adam P. Harrison
- Abstract要約: 解剖学的構造の3次元デライン化は、医用画像解析の基本的な目標である。
ディープラーニング以前は、解剖学的制約を課し高品質の表面を作り出す統計的形状モデルはコア技術だった。
我々は,CNNの表現力とSSMの頑健さを合体させるデライン化の新しい手法であるディープ暗黙的統計的形状モデル(DISSMs)を提案する。
- 参考スコア(独自算出の注目度): 47.78425002879612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D delineation of anatomical structures is a cardinal goal in medical imaging
analysis. Prior to deep learning, statistical shape models that imposed
anatomical constraints and produced high quality surfaces were a core
technology. Prior to deep learning, statistical shape models that imposed
anatomical constraints and produced high quality surfaces were a core
technology. Today fully-convolutional networks (FCNs), while dominant, do not
offer these capabilities. We present deep implicit statistical shape models
(DISSMs), a new approach to delineation that marries the representation power
of convolutional neural networks (CNNs) with the robustness of SSMs. DISSMs use
a deep implicit surface representation to produce a compact and descriptive
shape latent space that permits statistical models of anatomical variance. To
reliably fit anatomically plausible shapes to an image, we introduce a novel
rigid and non-rigid pose estimation pipeline that is modelled as a Markov
decision process(MDP). We outline a training regime that includes inverted
episodic training and a deep realization of marginal space learning (MSL).
Intra-dataset experiments on the task of pathological liver segmentation
demonstrate that DISSMs can perform more robustly than three leading FCN
models, including nnU-Net: reducing the mean Hausdorff distance (HD) by
7.7-14.3mm and improving the worst case Dice-Sorensen coefficient (DSC) by
1.2-2.3%. More critically, cross-dataset experiments on a dataset directly
reflecting clinical deployment scenarios demonstrate that DISSMs improve the
mean DSC and HD by 3.5-5.9% and 12.3-24.5mm, respectively, and the worst-case
DSC by 5.4-7.3%. These improvements are over and above any benefits from
representing delineations with high-quality surface.
- Abstract(参考訳): 解剖学的構造の3次元デライン化は、医用画像解析の基本的な目標である。
ディープラーニング以前は、解剖学的制約を課し高品質の表面を作り出す統計的形状モデルはコア技術だった。
ディープラーニング以前は、解剖学的制約を課し高品質の表面を作り出す統計的形状モデルはコア技術だった。
現在、FCN(完全畳み込みネットワーク)は支配的であるが、これらの機能を提供していない。
我々は,畳み込みニューラルネットワーク(CNN)の表現力をSSMの頑健性にマージする,新しいデライン化手法であるディープ暗黙的統計的形状モデル(DISSMs)を提案する。
DISSMは深い暗黙の表面表現を用いて、解剖学的分散の統計モデルを可能にするコンパクトで記述的なラテント空間を生成する。
画像に解剖学的に妥当な形状を確実に適合させるため,マルコフ決定過程(mdp)としてモデル化された新しい剛体および非剛体姿勢推定パイプラインを導入する。
本稿では,逆エピソード学習と,限界空間学習(MSL)の深い実現を含む訓練体制の概要を述べる。
nnu-netを含む3つの主要なfcnモデル(平均ハウスドルフ距離(hd)を7.7-14.3mm減らし、最悪の症例であるdice-sorensen係数(dsc)を1.2-2.3%改善する。
より重要なことは、臨床展開シナリオを直接反映したデータセット上のクロスデータセット実験により、DISMは平均DSCとHDをそれぞれ3.5-5.9%改善し、12.3-24.5mm改善し、最悪のDSCは5.4-7.3%改善した。
これらの改善は、高品質な表面でデリネーションを表現することのメリットを何よりも増やしている。
関連論文リスト
- Ground-truth effects in learning-based fiber orientation distribution estimation in neonatal brains [8.545738983975639]
我々は、MSMT-CSDとシングルシェル3段制約付き球面デコンボリューション(SS3T-CSD)の両方に基づいて、U-Netアーキテクチャに基づく最先端モデルを訓練する。
以上の結果より, SS3T-CSDとSS3T-CSDとの単繊維推定ボクセルの比率はMSMT-CSDよりも現実的であることが示唆された。
年齢領域シフト設定では、SS3T-CSDは年齢群全体で堅牢なパフォーマンスを維持しており、より正確な新生児脳画像撮影の可能性を示している。
論文 参考訳(メタデータ) (2024-09-02T12:05:03Z) - Probabilistic 3D Correspondence Prediction from Sparse Unsegmented Images [1.2179682412409507]
スパース画像データから3次元対応を予測する統一モデルであるSPI-CorrNetを提案する。
LGE MRI左房データセットとAbdomen CT-1K肝データセットを用いた実験により,スパース画像駆動SSMの精度とロバスト性の向上が示された。
論文 参考訳(メタデータ) (2024-07-02T03:56:20Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - ADASSM: Adversarial Data Augmentation in Statistical Shape Models From
Images [0.8192907805418583]
本稿では,データ依存型ノイズ生成やテクスチャ拡張を利用して,画像間SSMフレームワークのオンザフライデータ拡張のための新しい戦略を提案する。
提案手法は,画素値のみに頼らず,基礎となる幾何学に焦点をあてることにより,精度の向上を実現する。
論文 参考訳(メタデータ) (2023-07-06T20:21:12Z) - S3M: Scalable Statistical Shape Modeling through Unsupervised
Correspondences [91.48841778012782]
本研究では,集団解剖学における局所的および大域的形状構造を同時に学習するための教師なし手法を提案する。
我々のパイプラインは、ベースライン法と比較して、SSMの教師なし対応推定を大幅に改善する。
我々の手法は、ノイズの多いニューラルネットワーク予測から学ぶのに十分堅牢であり、より大きな患者にSSMを拡張できる可能性がある。
論文 参考訳(メタデータ) (2023-04-15T09:39:52Z) - Feature robustness and sex differences in medical imaging: a case study
in MRI-based Alzheimer's disease detection [1.7616042687330637]
我々はADNI MRIデータセットの2つの分類方式を比較した。
訓練データセットの性構成に対する男女試験対象者のモデル性能の強い依存は見つからない。
論文 参考訳(メタデータ) (2022-04-04T17:37:54Z) - Mesh convolutional neural networks for wall shear stress estimation in
3D artery models [7.7393800633675465]
CFDと同じ有限要素表面メッシュ上で直接動作するメッシュ畳み込みニューラルネットワークを提案する。
このメッシュ上での3次元壁せん断応力ベクトルを正確に予測できることが,我々のフレキシブルディープラーニングモデルにより示されている。
論文 参考訳(メタデータ) (2021-09-10T11:32:05Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Probabilistic 3D surface reconstruction from sparse MRI information [58.14653650521129]
スパース2次元MR画像データとアレータティック不確実性予測から3次元表面再構成を同時に行うための新しい確率論的深層学習手法を提案する。
本手法は,3つの準直交MR画像スライスから,限られたトレーニングセットから大きな表面メッシュを再構成することができる。
論文 参考訳(メタデータ) (2020-10-05T14:18:52Z) - Modelling the Distribution of 3D Brain MRI using a 2D Slice VAE [66.63629641650572]
本研究では,2次元スライスVAEとガウスモデルを組み合わせた3次元MR脳の体積分布をモデル化する手法を提案する。
また,本研究では,脳解剖学に適合するセグメンテーションの精度を定量的に評価する新たなボリューム評価手法を提案する。
論文 参考訳(メタデータ) (2020-07-09T13:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。