論文の概要: CLoE: Expert Consistency Learning for Missing Modality Segmentation
- arxiv url: http://arxiv.org/abs/2603.09316v1
- Date: Tue, 10 Mar 2026 07:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.133259
- Title: CLoE: Expert Consistency Learning for Missing Modality Segmentation
- Title(参考訳): CLoE: モダリティセグメンテーションを欠くためのエキスパートの一貫性学習
- Authors: Xinyu Tong, Meihua Zhou, Bowu Fan, Haitao Li,
- Abstract要約: 本稿では,欠落したモダリティセグメンテーションのための一貫性駆動型フレームワークであるConsistency Learning of Experts (CLoE)を提案する。
CLoEは、決定レベルの専門家整合性制御として堅牢性を定式化し、デュアルブランチの専門家整合性学習の目標を導入する。
BraTS 2020とMSD Prostateの実験では、CLoEは不完全なマルチモーダルセグメンテーションにおいて最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 5.826356759500556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal medical image segmentation often faces missing modalities at inference, which induces disagreement among modality experts and makes fusion unstable, particularly on small foreground structures. We propose Consistency Learning of Experts (CLoE), a consistency-driven framework for missing-modality segmentation that preserves strong performance when all modalities are available. CLoE formulates robustness as decision-level expert consistency control and introduces a dual-branch Expert Consistency Learning objective. Modality Expert Consistency enforces global agreement among expert predictions to reduce case-wise drift under partial inputs, while Region Expert Consistency emphasizes agreement on clinically critical foreground regions to avoid background-dominated regularization. We further map consistency scores to modality reliability weights using a lightweight gating network, enabling reliability-aware feature recalibration before fusion. Extensive experiments on BraTS 2020 and MSD Prostate demonstrate that CLoE outperforms state-of-the-art methods in incomplete multimodal segmentation, while exhibiting strong cross-dataset generalization and improving robustness on clinically critical structures.
- Abstract(参考訳): マルチモーダル・メディカル・イメージ・セグメンテーションは、しばしば推論におけるモダリティの欠如に直面し、特に小さなフォアグラウンド構造において、モダリティの専門家の間で不一致を引き起こし、融合を不安定にする。
CLoE(Consistency Learning of Experts)は、すべてのモダリティが利用できる場合に高いパフォーマンスを維持する、欠落モードセグメンテーションのための一貫性駆動フレームワークである。
CLoEは、決定レベルの専門家整合性制御として堅牢性を定式化し、デュアルブランチの専門家整合性学習の目標を導入する。
モダリティ専門家一貫性(Modality Expert Consistency)は、部分的な入力によるケースワイドを減らすための専門家予測の世界的な合意を強制する一方、地域専門家一貫性(Regional Expert Consistency)は、背景に支配される正規化を避けるために臨床上重要な前景領域に関する合意を強調する。
さらに、軽量なゲーティングネットワークを用いて、一貫性のスコアをモダリティの信頼性重みにマッピングし、融合前の信頼性を考慮した特徴の校正を可能にする。
BraTS 2020とMSD Prostateの大規模な実験では、CLoEは不完全なマルチモーダルセグメンテーションにおいて最先端の手法よりも優れており、強いデータセットの一般化と臨床的に重要な構造に対する堅牢性の向上を示している。
関連論文リスト
- ITO: Images and Texts as One via Synergizing Multiple Alignment and Training-Time Fusion [16.28499377328499]
ITOは2つの相乗的メカニズムによる制限に対処するフレームワークである。
ITOは、分類、検索、マルチモーダルベンチマークにおいて、強いベースラインを一貫して上回ることを示す。
解析の結果,複数のアライメントが識別力を駆動するのに対して,トレーニング時核融合は重要な構造正則化器として機能することがわかった。
論文 参考訳(メタデータ) (2026-03-03T09:08:53Z) - Uncertainty-Resilient Multimodal Learning via Consistency-Guided Cross-Modal Transfer [0.0]
この論文は、整合性誘導型クロスモーダルトランスファーによる不確実性と弾力性のあるマルチモーダル学習を探求する。
中心となる考え方は、堅牢な表現学習の基盤として、クロスモーダルなセマンティック一貫性を使用することである。
この基礎の上に構築された論文は、セマンティックロバスト性を高め、データ効率を向上し、ノイズや不完全な監視の影響を減らすための戦略を調査する。
論文 参考訳(メタデータ) (2025-11-18T15:26:42Z) - Harnessing Consistency for Robust Test-Time LLM Ensemble [88.55393815158608]
CoREは、堅牢なLLMアンサンブルにモデル一貫性を利用するプラグイン・アンド・プレイ技術である。
トークンレベルの一貫性は、ダウンウェイト不確実なトークンにローパスフィルタを適用することで、きめ細かい不一致を捕捉する。
モデルレベルの一貫性は、自己自信の高いモデル出力を促進することで、グローバルな合意をモデル化する。
論文 参考訳(メタデータ) (2025-10-12T04:18:45Z) - Rethinking Semi-supervised Segmentation Beyond Accuracy: Reliability and Robustness [10.220692937750295]
信頼性スコア(Reliable Score, RSS)は、予測精度、キャリブレーション、不確実性の測定を調和平均で組み合わせた新しい尺度である。
我々は、半教師付き学習研究と現実世界の展開ニーズをより良く整合させるために、RSSのようなより包括的なメトリクスへの評価プロトコルのシフトを提唱する。
論文 参考訳(メタデータ) (2025-06-06T09:37:45Z) - Improving Domain Generalization in Self-supervised Monocular Depth Estimation via Stabilized Adversarial Training [61.35809887986553]
我々は、SCAT(stabilized Conflict-Optimization Adversarial Training)という、汎用的な敵訓練フレームワークを提案する。
SCATは、安定性と一般化のバランスを達成するために、敵データ拡張を自己教師付きMDE手法に統合する。
5つのベンチマーク実験により、SCATは最先端の性能を達成でき、既存の自己監督型MDE法の一般化能力を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2024-11-04T15:06:57Z) - LoRanPAC: Low-rank Random Features and Pre-trained Models for Bridging Theory and Practice in Continual Learning [103.45785408116146]
連続学習(CL)は、連続的に提示される複数のタスクを解決できるモデルを訓練することを目的としている。
最近のCLアプローチは、ダウンストリームタスクをうまく一般化する大規模な事前学習モデルを活用することで、強力なパフォーマンスを実現している。
しかし、これらの手法には理論的保証がなく、予期せぬ失敗をしがちである。
理論的に健全で高性能な単純なCL法を設計することで,このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2024-10-01T12:58:37Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。