論文の概要: Style-Aware Blending and Prototype-Based Cross-Contrast Consistency for Semi-Supervised Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2507.20729v1
- Date: Mon, 28 Jul 2025 11:26:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.093947
- Title: Style-Aware Blending and Prototype-Based Cross-Contrast Consistency for Semi-Supervised Medical Image Segmentation
- Title(参考訳): 半監督型医用画像分割のためのスタイルアウェアブレンディングとプロトタイプベースのクロスコントラスト整合性
- Authors: Chaowei Chen, Xiang Zhang, Honglie Guo, Shunfang Wang,
- Abstract要約: スタイル認識型ブレンディングとプロトタイプベースのクロスコントラスト一貫性学習フレームワークを提案する。
ラベル付きデータとラベルなしデータの分散ミスマッチが統計的モーメントによって特徴付けられるという経験的観察から着想を得て,我々はスタイル誘導型分散混合モジュールを設計した。
強い擬似ラベルの潜在的なノイズを考慮すると,プロトタイプベースのクロスコントラスト戦略を導入し,情報監督信号の学習を促す。
- 参考スコア(独自算出の注目度): 4.989577402211973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weak-strong consistency learning strategies are widely employed in semi-supervised medical image segmentation to train models by leveraging limited labeled data and enforcing weak-to-strong consistency. However, existing methods primarily focus on designing and combining various perturbation schemes, overlooking the inherent potential and limitations within the framework itself. In this paper, we first identify two critical deficiencies: (1) separated training data streams, which lead to confirmation bias dominated by the labeled stream; and (2) incomplete utilization of supervisory information, which limits exploration of strong-to-weak consistency. To tackle these challenges, we propose a style-aware blending and prototype-based cross-contrast consistency learning framework. Specifically, inspired by the empirical observation that the distribution mismatch between labeled and unlabeled data can be characterized by statistical moments, we design a style-guided distribution blending module to break the independent training data streams. Meanwhile, considering the potential noise in strong pseudo-labels, we introduce a prototype-based cross-contrast strategy to encourage the model to learn informative supervisory signals from both weak-to-strong and strong-to-weak predictions, while mitigating the adverse effects of noise. Experimental results demonstrate the effectiveness and superiority of our framework across multiple medical segmentation benchmarks under various semi-supervised settings.
- Abstract(参考訳): 弱ストロング整合性学習戦略は、限られたラベル付きデータを活用し、弱いストロング整合性を強制することによって、モデルを訓練するための半教師付き医療画像セグメンテーションに広く採用されている。
しかし、既存の手法は主に様々な摂動スキームの設計と組み合わせに重点を置いており、フレームワーク自体に固有の可能性と限界を見下ろしている。
本稿では,(1)ラベル付きストリームに支配される確証バイアスをもたらす訓練データストリームの分離,(2)強弱一貫性の探索を制限する監視情報の不完全活用,の2つの重要な欠陥を最初に同定する。
これらの課題に対処するため、我々はスタイル対応ブレンディングとプロトタイプベースのクロスコントラスト一貫性学習フレームワークを提案する。
具体的には,ラベル付きデータとラベルなしデータとの分布ミスマッチが統計的モーメントによって特徴付けられるという経験的観察に着想を得て,独立したトレーニングデータストリームを分割するためのスタイル誘導型分散混合モジュールを設計する。
一方、強い擬似ラベルの潜在的なノイズを考慮したクロスコントラスト戦略を導入し、弱い音と強い音の予測から情報伝達信号の学習を促すとともに、騒音の悪影響を緩和する。
実験により, 各種半教師付きセグメンテーション・ベンチマークにおいて, フレームワークの有効性と優位性を示した。
関連論文リスト
- Semi-Supervised Medical Image Segmentation via Dual Networks [1.904929457002693]
本稿では,大規模な専門家ラベル付きデータセットへの依存を減らすために,革新的な半教師付き3次元医用画像分割法を提案する。
本稿では,コンテキスト情報を用いた既存手法の制約に対処するデュアルネットワークアーキテクチャを提案する。
臨床磁気共鳴画像実験により,我々のアプローチは最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-23T09:59:26Z) - Mutual Evidential Deep Learning for Medical Image Segmentation [39.930548790471896]
半教師付き学習において擬似ラベル生成のための潜在的に有効なソリューションを提供する相互顕在的深層学習フレームワークを提案する。
本稿では,5つの主流データセットを用いた実験において,MEDLが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2025-05-18T13:42:27Z) - SemSim: Revisiting Weak-to-Strong Consistency from a Semantic Similarity Perspective for Semi-supervised Medical Image Segmentation [18.223854197580145]
医用画像分割のための半教師付き学習(SSL)は難しいが、非常に実践的な課題である。
セムシム(SemSim)という名前のFixMatchに基づく新しいフレームワークを提案する。
SemSimは3つの公開セグメンテーションベンチマークで最先端の手法よりも一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-17T12:31:37Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Convergence Behavior of an Adversarial Weak Supervision Method [10.409652277630133]
Weak Supervisionは、機械学習のサブ領域を仮定するパラダイムである。
ラベル付きデータを用いて最新の機械学習手法を訓練することにより、大量のラベル付きデータを取得するコストを改善することができる。
ツムブのルールを組み合わせるための2つのアプローチは、2つのキャンプに分かれ、統計的推定の異なるイデオロギーを反映している。
論文 参考訳(メタデータ) (2024-05-25T02:33:17Z) - Adaptive Bidirectional Displacement for Semi-Supervised Medical Image Segmentation [11.195959019678314]
整合性学習は、半教師付き医療画像セグメンテーションにおいて、ラベルのないデータに取り組むための中心的な戦略である。
本稿では,上記の課題を解決するための適応的双方向変位法を提案する。
論文 参考訳(メタデータ) (2024-05-01T08:17:43Z) - Robust Training of Federated Models with Extremely Label Deficiency [84.00832527512148]
フェデレーション半教師付き学習(FSSL)は、ラベル不足を伴う分散データを用いて機械学習モデルを協調訓練するための強力なパラダイムとして登場した。
我々は,ラベル付きおよびラベルなしデータの異なる視点から洞察を提供することにより相互指導を強化するために,ツインサイトと呼ばれる新しいツインモデルパラダイムを提案する。
4つのベンチマークデータセットに関する包括的な実験は、Twin-sightが様々な実験環境において最先端の手法を著しく上回っていることを示す重要な証拠となる。
論文 参考訳(メタデータ) (2024-02-22T10:19:34Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。