論文の概要: Semi-Supervised Multi-Modal Medical Image Segmentation for Complex Situations
- arxiv url: http://arxiv.org/abs/2506.17136v1
- Date: Fri, 20 Jun 2025 16:37:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.547065
- Title: Semi-Supervised Multi-Modal Medical Image Segmentation for Complex Situations
- Title(参考訳): 複雑な状況に対する半監督型マルチモーダル医用画像分割法
- Authors: Dongdong Meng, Sheng Li, Hao Wu, Guoping Wang, Xueqing Yan,
- Abstract要約: 本稿では,ラベル付きデータによる性能向上のために,補完的なマルチモーダル情報を活用する,新しい半教師付きマルチモーダル医用画像分割手法を提案する。
2つのマルチモーダルデータセットの実験結果から,提案フレームワークの優れた性能とロバスト性を示す。
- 参考スコア(独自算出の注目度): 15.548601974034032
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Semi-supervised learning addresses the issue of limited annotations in medical images effectively, but its performance is often inadequate for complex backgrounds and challenging tasks. Multi-modal fusion methods can significantly improve the accuracy of medical image segmentation by providing complementary information. However, they face challenges in achieving significant improvements under semi-supervised conditions due to the challenge of effectively leveraging unlabeled data. There is a significant need to create an effective and reliable multi-modal learning strategy for leveraging unlabeled data in semi-supervised segmentation. To address these issues, we propose a novel semi-supervised multi-modal medical image segmentation approach, which leverages complementary multi-modal information to enhance performance with limited labeled data. Our approach employs a multi-stage multi-modal fusion and enhancement strategy to fully utilize complementary multi-modal information, while reducing feature discrepancies and enhancing feature sharing and alignment. Furthermore, we effectively introduce contrastive mutual learning to constrain prediction consistency across modalities, thereby facilitating the robustness of segmentation results in semi-supervised tasks. Experimental results on two multi-modal datasets demonstrate the superior performance and robustness of the proposed framework, establishing its valuable potential for solving medical image segmentation tasks in complex scenarios.
- Abstract(参考訳): 半教師付き学習は、医学画像における限られたアノテーションの問題を効果的に解決するが、その性能は複雑な背景や困難なタスクには不十分であることが多い。
多モード融合法は相補的な情報を提供することで医用画像分割の精度を大幅に向上させることができる。
しかし、ラベルなしデータを効果的に活用することの難しさから、半教師付き条件下での大幅な改善を実現する上で、課題に直面している。
半教師付きセグメンテーションにおけるラベルのないデータを活用するために、効果的で信頼性の高いマルチモーダル学習戦略を作成する必要がある。
これらの課題に対処するために,ラベル付き限られたデータを用いて,補完的なマルチモーダル情報を活用する,半教師付きマルチモーダル医用画像セグメンテーション手法を提案する。
提案手法では,多段階のマルチモーダル融合と拡張戦略を用いて,相補的なマルチモーダル情報を完全に活用し,特徴の相違を低減し,特徴の共有とアライメントを向上する。
さらに,教師付きタスクにおけるセグメンテーション結果のロバスト性を高めるために,モーダル性間の予測一貫性を制約するコントラッシブ相互学習を効果的に導入する。
2つのマルチモーダルデータセットの実験結果から,提案手法の優れた性能とロバスト性を実証し,複雑なシナリオにおける医用画像分割タスクの解決に有用であることを示す。
関連論文リスト
- Robust Multimodal Learning for Ophthalmic Disease Grading via Disentangled Representation [30.697291934309206]
医療機器の欠如とデータのプライバシーに関する懸念により、マルチモーダルデータは現実世界のアプリケーションではまれである。
伝統的な深層学習法は一般に、潜在空間における表現の学習によってこれらの問題に対処する。
著者らはEssence-Point and Disentangle Representation Learning (EDRL)戦略を提案している。
論文 参考訳(メタデータ) (2025-03-07T10:58:38Z) - Partially Supervised Unpaired Multi-Modal Learning for Label-Efficient Medical Image Segmentation [53.723234136550055]
我々は、新しい学習パラダイムを部分教師付き無ペア型マルチモーダルラーニング(PSUMML)と呼ぶ。
そこで我々は,DEST (Ensembled Self-Training) フレームワークを用いた新しい部分クラス適応法を提案する。
我々のフレームワークは、部分的にラベル付けされていないマルチモーダルデータを用いて学習するためのモダリティ特定正規化層を持つコンパクトなセグメンテーションネットワークで構成されている。
論文 参考訳(メタデータ) (2025-03-07T07:22:42Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Robust Semi-supervised Multimodal Medical Image Segmentation via Cross Modality Collaboration [21.97457095780378]
本稿では,ラベル付きデータの不足やモダリティの不一致に頑健な,新しい半教師付きマルチモーダルセグメンテーションフレームワークを提案する。
本フレームワークでは,各モダリティに固有の,モダリティに依存しない知識を蒸留する,新たなモダリティ協調戦略を採用している。
また、対照的な一貫した学習を統合して解剖学的構造を規制し、ラベルのないデータに対する解剖学的予測アライメントを容易にする。
論文 参考訳(メタデータ) (2024-08-14T07:34:12Z) - Multi-Scale Cross Contrastive Learning for Semi-Supervised Medical Image
Segmentation [14.536384387956527]
医用画像の構造を分割するマルチスケールクロススーパービジョンコントラスト学習フレームワークを開発した。
提案手法は,頑健な特徴表現を抽出するために,地上構造と横断予測ラベルに基づくマルチスケール特徴と対比する。
Diceでは最先端の半教師あり手法を3.0%以上上回っている。
論文 参考訳(メタデータ) (2023-06-25T16:55:32Z) - Multi-task Paired Masking with Alignment Modeling for Medical
Vision-Language Pre-training [55.56609500764344]
本稿では,マルチタスク・ペアド・マスキング・アライメント(MPMA)に基づく統合フレームワークを提案する。
また, メモリ拡張クロスモーダルフュージョン (MA-CMF) モジュールを導入し, 視覚情報を完全統合し, レポート再構築を支援する。
論文 参考訳(メタデータ) (2023-05-13T13:53:48Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。