論文の概要: Uncertainty-aware Cross-training for Semi-supervised Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2508.09014v1
- Date: Tue, 12 Aug 2025 15:28:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.479557
- Title: Uncertainty-aware Cross-training for Semi-supervised Medical Image Segmentation
- Title(参考訳): 半教師型医用画像分割のための不確実性を考慮したクロストレーニング
- Authors: Kaiwen Huang, Tao Zhou, Huazhu Fu, Yizhe Zhang, Yi Zhou, Xiao-Jun Wu,
- Abstract要約: 半教師型医療画像(UC-Seg)のための不確実性を考慮したクロストレーニングフレームワークを提案する。
本手法は,他の最先端半教師付き手法と比較して,セグメンテーション精度と一般化性能に優れる。
- 参考スコア(独自算出の注目度): 45.96892342675963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning has gained considerable popularity in medical image segmentation tasks due to its capability to reduce reliance on expert-examined annotations. Several mean-teacher (MT) based semi-supervised methods utilize consistency regularization to effectively leverage valuable information from unlabeled data. However, these methods often heavily rely on the student model and overlook the potential impact of cognitive biases within the model. Furthermore, some methods employ co-training using pseudo-labels derived from different inputs, yet generating high-confidence pseudo-labels from perturbed inputs during training remains a significant challenge. In this paper, we propose an Uncertainty-aware Cross-training framework for semi-supervised medical image Segmentation (UC-Seg). Our UC-Seg framework incorporates two distinct subnets to effectively explore and leverage the correlation between them, thereby mitigating cognitive biases within the model. Specifically, we present a Cross-subnet Consistency Preservation (CCP) strategy to enhance feature representation capability and ensure feature consistency across the two subnets. This strategy enables each subnet to correct its own biases and learn shared semantics from both labeled and unlabeled data. Additionally, we propose an Uncertainty-aware Pseudo-label Generation (UPG) component that leverages segmentation results and corresponding uncertainty maps from both subnets to generate high-confidence pseudo-labels. We extensively evaluate the proposed UC-Seg on various medical image segmentation tasks involving different modality images, such as MRI, CT, ultrasound, colonoscopy, and so on. The results demonstrate that our method achieves superior segmentation accuracy and generalization performance compared to other state-of-the-art semi-supervised methods. Our code will be released at https://github.com/taozh2017/UCSeg.
- Abstract(参考訳): 半教師付き学習は、専門家によるアノテーションへの依存を減らす能力により、医用画像のセグメンテーションタスクでかなりの人気を得ている。
いくつかの平均教師(MT)に基づく半教師付き手法は、一貫性の正則化を利用して、ラベルのないデータから有用な情報を効果的に活用する。
しかしながら、これらの手法はしばしば学生モデルに大きく依存し、モデル内の認知バイアスの潜在的影響を見落としている。
さらに、異なる入力から派生した擬似ラベルを用いたコトレーニングを用いる方法もあるが、トレーニング中に摂動入力から高信頼の擬似ラベルを生成することは大きな課題である。
本稿では,半教師型医療画像セグメンテーション(UC-Seg)のための,不確実性を考慮したクロストレーニングフレームワークを提案する。
我々のUC-Segフレームワークは、2つの異なるサブネットを組み込んで、それらの相関を効果的に探索し、活用することで、モデル内の認知バイアスを軽減する。
具体的には,CCP(Cross-subnet Consistency Preservation)戦略を提案する。
この戦略により、各サブネットは自身のバイアスを修正し、ラベル付きデータとラベルなしデータの両方から共有セマンティクスを学ぶことができる。
さらに、セグメント化結果と対応するサブネットからの不確実性マップを利用して、信頼度の高い擬似ラベルを生成する不確実性対応Pseudo-label Generation (UPG) コンポーネントを提案する。
われわれは,MRI,CT,超音波,大腸内視鏡などの様々な画像を含む様々な医療画像分割タスクについて,UC-Segを広範囲に評価した。
その結果, 従来の半教師付き手法と比較して, セグメント化精度と一般化性能が優れていることがわかった。
私たちのコードはhttps://github.com/taozh2017/UCSeg.comでリリースされます。
関連論文リスト
- Dual Cross-image Semantic Consistency with Self-aware Pseudo Labeling for Semi-supervised Medical Image Segmentation [14.93815368545141]
半教師付き学習は、医学画像セグメンテーションにおける限られたラベル付きトレーニングデータの課題に取り組むのに非常に効果的であることが証明されている。
半教師型医用画像分割のための新しいアンダーラインDual underlineimage underlineSemantic underlineConsistency(DuCiSC)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-29T02:26:56Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Multi-Scale Cross Contrastive Learning for Semi-Supervised Medical Image
Segmentation [14.536384387956527]
医用画像の構造を分割するマルチスケールクロススーパービジョンコントラスト学習フレームワークを開発した。
提案手法は,頑健な特徴表現を抽出するために,地上構造と横断予測ラベルに基づくマルチスケール特徴と対比する。
Diceでは最先端の半教師あり手法を3.0%以上上回っている。
論文 参考訳(メタデータ) (2023-06-25T16:55:32Z) - Cross-supervised Dual Classifiers for Semi-supervised Medical Image
Segmentation [10.18427897663732]
半教師付き医用画像分割は、大規模医用画像解析に有望な解決策を提供する。
本稿では、二重分類器(DC-Net)に基づくクロス教師あり学習フレームワークを提案する。
LAとPancreas-CTデータセットの実験は、DC-Netが半教師付きセグメンテーションの他の最先端手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-25T16:23:39Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - RCPS: Rectified Contrastive Pseudo Supervision for Semi-Supervised
Medical Image Segmentation [26.933651788004475]
我々は、RCPS(Rectified Contrastive Pseudo Supervision)という、新しい半教師付きセグメンテーション手法を提案する。
RCPSは、修正された疑似監督とボクセルレベルのコントラスト学習を組み合わせて、半教師付きセグメンテーションの有効性を向上させる。
実験結果から, 半教師付き医用画像分割における最先端手法と比較して, 高いセグメンテーション性能が得られた。
論文 参考訳(メタデータ) (2023-01-13T12:03:58Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。