論文の概要: Unified cross-modality feature disentangler for unsupervised
multi-domain MRI abdomen organs segmentation
- arxiv url: http://arxiv.org/abs/2007.09669v1
- Date: Sun, 19 Jul 2020 13:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:44:04.162372
- Title: Unified cross-modality feature disentangler for unsupervised
multi-domain MRI abdomen organs segmentation
- Title(参考訳): 教師なし多領域MRI腹部領域分割のための一貫したクロスモダリティ特徴ジアンタングル
- Authors: Jue Jiang and Harini Veeraraghavan
- Abstract要約: 我々の貢献は、多領域画像翻訳と複数の臓器セグメント化のための、一貫したクロスモダリティ特徴分離アプローチである。
ラベル付きソースドメインとしてCTを用いることで,ラベル付きデータを持たないマルチモーダルMRI(T1重み,T2重み)を抽出する。
提案手法により,T1wでは0.85,T2wMRIでは0.90のDice類似係数が得られた。
- 参考スコア(独自算出の注目度): 3.3504365823045044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our contribution is a unified cross-modality feature disentagling approach
for multi-domain image translation and multiple organ segmentation. Using CT as
the labeled source domain, our approach learns to segment multi-modal
(T1-weighted and T2-weighted) MRI having no labeled data. Our approach uses a
variational auto-encoder (VAE) to disentangle the image content from style. The
VAE constrains the style feature encoding to match a universal prior (Gaussian)
that is assumed to span the styles of all the source and target modalities. The
extracted image style is converted into a latent style scaling code, which
modulates the generator to produce multi-modality images according to the
target domain code from the image content features. Finally, we introduce a
joint distribution matching discriminator that combines the translated images
with task-relevant segmentation probability maps to further constrain and
regularize image-to-image (I2I) translations. We performed extensive
comparisons to multiple state-of-the-art I2I translation and segmentation
methods. Our approach resulted in the lowest average multi-domain image
reconstruction error of 1.34$\pm$0.04. Our approach produced an average Dice
similarity coefficient (DSC) of 0.85 for T1w and 0.90 for T2w MRI for
multi-organ segmentation, which was highly comparable to a fully supervised MRI
multi-organ segmentation network (DSC of 0.86 for T1w and 0.90 for T2w MRI).
- Abstract(参考訳): 提案手法は多領域画像変換と多臓器セグメンテーションのための統合的クロスモダリティ特徴分離手法である。
ラベル付きソースドメインとしてCTを用いることで,ラベル付きデータを持たないマルチモーダルMRI(T1重み,T2重み)を抽出する。
提案手法では, 可変オートエンコーダ(VAE)を用いて, 画像コンテンツをスタイルから切り離す。
vaeは、すべてのソースとターゲットモダリティのスタイルにまたがると仮定される普遍的事前(ガウシアン)にマッチするように、スタイル特徴エンコーディングを制約する。
抽出された画像スタイルを潜在型スケーリングコードに変換し、画像コンテンツ特徴からターゲットドメインコードに従ってジェネレータを変調してマルチモダリティ画像を生成する。
最後に,翻訳画像とタスク関連セグメンテーション確率マップを組み合わせることで,画像から画像への変換(I2I)をさらに制約し,規則化する共同分布マッチング判別器を提案する。
複数の最先端i2i翻訳法とセグメンテーション法との比較を行った。
その結果、平均的マルチドメイン画像再構成誤差は1.34$\pm$0.04であった。
提案手法は,T1wでは平均Dice類似度係数0.85,T2wMRIでは0.90,T1wMRIでは0.86,T2wMRIでは0.90であった。
関連論文リスト
- I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - MS-MT: Multi-Scale Mean Teacher with Contrastive Unpaired Translation
for Cross-Modality Vestibular Schwannoma and Cochlea Segmentation [11.100048696665496]
教師なしドメイン適応(UDA)メソッドは、有望なクロスモダリティセグメンテーション性能を達成した。
本稿では,2つの重要な脳構造の自動分割のための,マルチスケールの自己組織化に基づくUDAフレームワークを提案する。
提案手法は,平均Diceスコアが83.8%,81.4%の有望なセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2023-03-28T08:55:00Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - ICMSC: Intra- and Cross-modality Semantic Consistency for Unsupervised
Domain Adaptation on Hip Joint Bone Segmentation [1.4148874598036136]
UDAのためのICMSC(Intra- and Cross-modality semantic consistent)を提案する。
提案手法では,アセタブルムの平均DICEは81.61%,近位大腿骨は88.16%であった。
UDAなしでは、股関節骨分割のためのCTで訓練されたモデルはMRIに転送できず、ほぼゼロDICE分割を有する。
論文 参考訳(メタデータ) (2020-12-23T09:58:38Z) - PSIGAN: Joint probabilistic segmentation and image distribution matching
for unpaired cross-modality adaptation based MRI segmentation [4.573421102994323]
我々は、新しい関節確率分割と画像分布マッチング生成対向ネットワーク(PSIGAN)を開発した。
我々のUDAアプローチは、画像とセグメント間の共依存性を共同確率分布としてモデル化する。
T1wは0.87,T2wは0.90であった。
論文 参考訳(メタデータ) (2020-07-18T16:23:02Z) - GMM-UNIT: Unsupervised Multi-Domain and Multi-Modal Image-to-Image
Translation via Attribute Gaussian Mixture Modeling [66.50914391679375]
unsupervised image-to-image translation (UNIT) は、未経験の訓練画像を用いて、複数の視覚領域間のマッピングを学習することを目的としている。
最近の研究は、複数のドメインで顕著な成功を示しているが、それらは2つの主要な制限に悩まされている。
GMM-UNITという,空間にGMMを組み込むコンテンツ属性不整合表現に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-03-15T10:18:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。