論文の概要: DC-Seg: Disentangled Contrastive Learning for Brain Tumor Segmentation with Missing Modalities
- arxiv url: http://arxiv.org/abs/2505.11921v1
- Date: Sat, 17 May 2025 09:12:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.939383
- Title: DC-Seg: Disentangled Contrastive Learning for Brain Tumor Segmentation with Missing Modalities
- Title(参考訳): DC-Seg: 欠損モードを伴う脳腫瘍切開のための非交叉性コントラスト学習
- Authors: Haitao Li, Ziyu Li, Yiheng Mao, Zhengyao Ding, Zhengxing Huang,
- Abstract要約: 本稿では,DC-Segを提案する。この手法は,画像をモダリティ不変の解剖学的表現に明示的に切り離す手法である。
この解は、モダリティギャップを考慮することにより、解剖学的特徴とモダリティ特異的特徴の分離を改善する。
BraTS 2020とプライベートホワイトマターハイパーインテンシティ(WMH)セグメンテーションデータセットの実験は、DC-Segが最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 9.878680177357454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurate segmentation of brain images typically requires the integration of complementary information from multiple image modalities. However, clinical data for all modalities may not be available for every patient, creating a significant challenge. To address this, previous studies encode multiple modalities into a shared latent space. While somewhat effective, it remains suboptimal, as each modality contains distinct and valuable information. In this study, we propose DC-Seg (Disentangled Contrastive Learning for Segmentation), a new method that explicitly disentangles images into modality-invariant anatomical representation and modality-specific representation, by using anatomical contrastive learning and modality contrastive learning respectively. This solution improves the separation of anatomical and modality-specific features by considering the modality gaps, leading to more robust representations. Furthermore, we introduce a segmentation-based regularizer that enhances the model's robustness to missing modalities. Extensive experiments on the BraTS 2020 and a private white matter hyperintensity(WMH) segmentation dataset demonstrate that DC-Seg outperforms state-of-the-art methods in handling incomplete multimodal brain tumor segmentation tasks with varying missing modalities, while also demonstrate strong generalizability in WMH segmentation. The code is available at https://github.com/CuCl-2/DC-Seg.
- Abstract(参考訳): 脳画像の正確なセグメンテーションは、通常、複数の画像モダリティから補完的な情報を統合する必要がある。
しかし、すべてのモダリティに関する臨床データは全ての患者に利用できない可能性があり、重大な課題を生み出している。
これを解決するために、過去の研究は複数のモダリティを共有潜在空間にエンコードした。
幾分効果はあるものの、各モダリティには異なる価値ある情報が含まれているため、準最適のままである。
本研究では,DC-Seg(Disentangled Contrastive Learning for Segmentation)を提案する。この手法は,画像を,それぞれ解剖学的コントラスト学習とモダリティコントラスト学習を用いて,モダリティ不変の解剖学的表現とモダリティ固有表現に明確に分離する手法である。
この解は、モダリティギャップを考慮し、解剖学的特徴とモダリティ固有の特徴の分離を改善し、より堅牢な表現をもたらす。
さらに,モデルのロバスト性を高めるセグメンテーションベースの正規化器を導入する。
BraTS 2020とプライベートホワイトマターハイパーインテンシティ(WMH)セグメンテーションデータセットに関する大規模な実験は、DC-Segが不完全なマルチモーダル脳腫瘍セグメンテーションタスクを様々なモダリティで処理する上で、最先端の手法よりも優れており、WMHセグメンテーションにおける強力な一般化性を示していることを示している。
コードはhttps://github.com/CuCl-2/DC-Segで公開されている。
関連論文リスト
- Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Enhancing Modality-Agnostic Representations via Meta-Learning for Brain
Tumor Segmentation [16.747365311040863]
そこで本研究では,メタラーニング戦略を用いてモダリティ非依存表現を学習する手法を提案する。
われわれのフレームワークは、欠落したモダリティシナリオにおいて最先端の脳腫瘍セグメンテーション技術より著しく優れている。
論文 参考訳(メタデータ) (2023-02-08T19:53:07Z) - Exploiting Partial Common Information Microstructure for Multi-Modal
Brain Tumor Segmentation [11.583406152227637]
マルチモーダル性による学習は、磁気共鳴画像データから自動脳腫瘍セグメント化に不可欠である。
既存のアプローチは、モダリティのサブセットによって共有される部分的な共通情報に不可避である。
本稿では,このような部分的な共通情報を同定することで,画像分割モデルの識別能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-02-06T01:28:52Z) - M-GenSeg: Domain Adaptation For Target Modality Tumor Segmentation With
Annotation-Efficient Supervision [4.023899199756184]
M-GenSegは、クロスモダリティ腫瘍セグメンテーションのための、新しい半教師付きジェネレーショントレーニング戦略である。
4つの異なるコントラスト配列からなる脳腫瘍セグメント化データセットの性能評価を行った。
以前の技術とは異なり、M-GenSegは部分的に注釈付きソースモダリティでトレーニングする機能も導入している。
論文 参考訳(メタデータ) (2022-12-14T15:19:06Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。