論文の概要: CmFNet: Cross-modal Fusion Network for Weakly-supervised Segmentation of Medical Images
- arxiv url: http://arxiv.org/abs/2506.18042v1
- Date: Sun, 22 Jun 2025 14:02:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.714064
- Title: CmFNet: Cross-modal Fusion Network for Weakly-supervised Segmentation of Medical Images
- Title(参考訳): CmFNet:医療画像の弱教師付きセグメンテーションのためのクロスモーダル核融合ネットワーク
- Authors: Dongdong Meng, Sheng Li, Hao Wu, Suqing Tian, Wenjun Ma, Guoping Wang, Xueqing Yan,
- Abstract要約: そこで我々は,CmFNetを提案する。CmFNetは3次元弱教師付き医用画像分割手法である。
CmFNetは、モダリティ固有の特徴学習ネットワーク、クロスモーダル特徴学習ネットワーク、ハイブリッド教師あり学習戦略の3つの主要コンポーネントで構成されている。
当社のアプローチは、オーバーフィッティングを効果的に軽減し、堅牢なセグメンテーション結果を提供する。
- 参考スコア(独自算出の注目度): 15.499686354040774
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate automatic medical image segmentation relies on high-quality, dense annotations, which are costly and time-consuming. Weakly supervised learning provides a more efficient alternative by leveraging sparse and coarse annotations instead of dense, precise ones. However, segmentation performance degradation and overfitting caused by sparse annotations remain key challenges. To address these issues, we propose CmFNet, a novel 3D weakly supervised cross-modal medical image segmentation approach. CmFNet consists of three main components: a modality-specific feature learning network, a cross-modal feature learning network, and a hybrid-supervised learning strategy. Specifically, the modality-specific feature learning network and the cross-modal feature learning network effectively integrate complementary information from multi-modal images, enhancing shared features across modalities to improve segmentation performance. Additionally, the hybrid-supervised learning strategy guides segmentation through scribble supervision, intra-modal regularization, and inter-modal consistency, modeling spatial and contextual relationships while promoting feature alignment. Our approach effectively mitigates overfitting, delivering robust segmentation results. It excels in segmenting both challenging small tumor regions and common anatomical structures. Extensive experiments on a clinical cross-modal nasopharyngeal carcinoma (NPC) dataset (including CT and MR imaging) and the publicly available CT Whole Abdominal Organ dataset (WORD) show that our approach outperforms state-of-the-art weakly supervised methods. In addition, our approach also outperforms fully supervised methods when full annotation is used. Our approach can facilitate clinical therapy and benefit various specialists, including physicists, radiologists, pathologists, and oncologists.
- Abstract(参考訳): 正確な自動画像分割は、高価で時間を要する高品質で高密度なアノテーションに依存している。
弱教師付き学習は、厳密で正確なアノテーションではなく、スパースと粗いアノテーションを活用することで、より効率的な代替手段を提供する。
しかし、スパースアノテーションによるセグメンテーションパフォーマンスの劣化と過度な適合は、依然として重要な課題である。
これらの課題に対処するため、我々は3D弱教師付きクロスモーダルな医用画像分割手法であるCmFNetを提案する。
CmFNetは、モダリティ固有の特徴学習ネットワーク、クロスモーダル特徴学習ネットワーク、ハイブリッド教師あり学習戦略の3つの主要コンポーネントで構成されている。
具体的には、モダリティ特化特徴学習ネットワークとクロスモーダル特徴学習ネットワークは、マルチモーダル画像からの補完情報を効果的に統合し、モダリティ間の共有機能を強化し、セグメンテーション性能を向上させる。
さらに、ハイブリッド教師付き学習戦略は、スクリブル監督、モーダル内正規化、モーダル間整合性、空間的・文脈的関係のモデル化、特徴アライメントの促進を通じてセグメンテーションを導く。
当社のアプローチは、オーバーフィッティングを効果的に軽減し、堅牢なセグメンテーション結果を提供する。
挑戦的な小腫瘍領域と一般的な解剖学的構造の両方をセグメント化することに優れる。
CT,MR画像などの臨床横断性鼻咽頭癌 (NPC) データセットと一般用CT全腹部臓器 (WORD) データセットの大規模な実験により, 本手法は最先端の弱監督法より優れていることが示された。
さらに,本手法は全アノテーションを用いた場合,教師付きメソッドよりも優れている。
本手法は, 臨床療法の促進と, 物理学者, 放射線技師, 病理学者, 腫瘍学者など, 様々な専門家の利益をもたらす。
関連論文リスト
- Robust Semi-supervised Multimodal Medical Image Segmentation via Cross Modality Collaboration [21.97457095780378]
本稿では,ラベル付きデータの不足やモダリティの不一致に頑健な,新しい半教師付きマルチモーダルセグメンテーションフレームワークを提案する。
本フレームワークでは,各モダリティに固有の,モダリティに依存しない知識を蒸留する,新たなモダリティ協調戦略を採用している。
また、対照的な一貫した学習を統合して解剖学的構造を規制し、ラベルのないデータに対する解剖学的予測アライメントを容易にする。
論文 参考訳(メタデータ) (2024-08-14T07:34:12Z) - Enhancing Weakly Supervised 3D Medical Image Segmentation through Probabilistic-aware Learning [47.700298779672366]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - Multi-Scale Cross Contrastive Learning for Semi-Supervised Medical Image
Segmentation [14.536384387956527]
医用画像の構造を分割するマルチスケールクロススーパービジョンコントラスト学習フレームワークを開発した。
提案手法は,頑健な特徴表現を抽出するために,地上構造と横断予測ラベルに基づくマルチスケール特徴と対比する。
Diceでは最先端の半教師あり手法を3.0%以上上回っている。
論文 参考訳(メタデータ) (2023-06-25T16:55:32Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。