論文の概要: Confidence-Calibrating Regularization for Robust Brain MRI Segmentation Under Domain Shift
- arxiv url: http://arxiv.org/abs/2509.23176v1
- Date: Sat, 27 Sep 2025 08:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.087505
- Title: Confidence-Calibrating Regularization for Robust Brain MRI Segmentation Under Domain Shift
- Title(参考訳): 領域シフト下でのロバスト脳MRI偏位に対する信頼度補正法
- Authors: Behraj Khan, Tahir Qasim Syed,
- Abstract要約: 軽量適応フレームワークである textbfCalSAM を提案する。
これは、EmphFeature Fisher Information Penalty (FIP)を介して、ドメインシフトに対するエンコーダの感度を低下させ、EmphConfidence Misalignment Penalty (CMP)を通して、自信過剰なVoxel-wiseエラーを罰する。
クロスセンターとスキャナシフトの評価では、CalSAMは精度とキャリブレーションを大幅に改善する。
- 参考スコア(独自算出の注目度): 3.5808917363708743
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Segment Anything Model (SAM) exhibits strong zero-shot performance on natural images but suffers from domain shift and overconfidence when applied to medical volumes. We propose \textbf{CalSAM}, a lightweight adaptation framework that (i) reduces encoder sensitivity to domain shift via a \emph{Feature Fisher Information Penalty} (FIP) computed on 3D feature maps and (ii) penalizes overconfident voxel-wise errors through a \emph{Confidence Misalignment Penalty} (CMP). The combined loss, \(\mathcal{L}_{\mathrm{CalSAM}}\) fine-tunes only the mask decoder while keeping SAM's encoders frozen. On cross-center and scanner-shift evaluations, CalSAM substantially improves accuracy and calibration: e.g., on the BraTS scanner split (Siemens$\to$GE) CalSAM shows a $+7.4\%$ relative improvement in $\mathrm{DSC}$ (80.1\% vs.\ 74.6\%), a $-26.9\%$ reduction in $\mathrm{HD95}$ (4.6 mm vs.\ 6.3 mm), and a $-39.5\%$ reduction in $\mathrm{ECE}$ (5.2\% vs.\ 8.6\%). On ATLAS-C (motion corruptions), CalSAM achieves a $+5.3\%$ relative improvement in $\mathrm{DSC}$ (75.9\%) and a $-32.6\%$ reduction in $\mathrm{ECE}$ (5.8\%). Ablations show FIP and CMP contribute complementary gains ($p<0.01$), and the Fisher penalty incurs a modest $\sim$15\% training-time overhead. CalSAM therefore delivers improved domain generalization and better-calibrated uncertainty estimates for brain MRI segmentation, while retaining the computational benefits of freezing SAM's encoder.
- Abstract(参考訳): SAM(Segment Anything Model)は、自然画像に対して強いゼロショット性能を示すが、医学的ボリュームに適用した場合、ドメインシフトや過剰な自信に悩まされる。
軽量適応フレームワークであるtextbf{CalSAM} を提案する。
i)3次元特徴マップ上で計算された「emph{Feature Fisher Information Penalty}」(FIP)を介して、ドメインシフトに対するエンコーダの感度を低下させる。
(ii) \emph{Confidence Misalignment Penalty} (CMP) を通じて、過信なボクセルの誤りを罰する。
複合的な損失である \(\mathcal{L}_{\mathrm{CalSAM}}\) は、SAMのエンコーダを凍結させながらマスクデコーダのみを微調整する。
例えば、BraTSスキャナ分割(Siemens$\to$GE)のCalSAMでは、$\mathrm{DSC}$ (80.1\%)の相対的な改善が+7.4\%である。
74.6\%), $-26.9\%$ $\mathrm{HD95}$ (4.6 mm vs.)。
6.3 mm) と $-39.5\%$ $\mathrm{ECE}$ (5.2\% vs.) である。
8.6 %)。
ATLAS-C では、CalSAM は $\mathrm{DSC}$ (75.9\%) と $-32.6\%$ $\mathrm{ECE}$ (5.8\%) の相対的な改善を達成している。
FIPとCMPは相補的な利益(p<0.01ドル)に寄与し、フィッシャーのペナルティはわずかに$\sim$15\%のトレーニングタイムオーバーヘッドをもたらす。
そのため、CalSAMは、SAMエンコーダの凍結による計算上の利点を維持しながら、改善された領域の一般化と、脳MRIのセグメント化のためのより良い校正の不確実性推定を提供する。
関連論文リスト
- Less Noise, Same Certificate: Retain Sensitivity for Unlearning [12.34913959100445]
Certified Machine Unlearningは、データセット$S$でトレーニングされたモデルから、削除セット$U$の影響を確実に除去することを目的としている。
多くの既存の認証済みの未学習手法は、差分プライバシー(DP)の手法に適応し、グローバルな感度に調整されたノイズを追加する。
このDPスタイルの校正は、未学習では過度に保守的であることが示されている。
この区別によって、我々はセマンティクスを、$R$を固定しながら、削除した$U$よりも最悪のケースの出力変更として定義する。
論文 参考訳(メタデータ) (2026-03-03T17:21:38Z) - Not Just How Much, But Where: Decomposing Epistemic Uncertainty into Per-Class Contributions [1.2891210250935148]
安全クリティカルな分類では、失敗のコストはしばしば非対称である。
MI をクラスごとのベクトル $C_k(x)=_k2/ (2_k)$, $_k=mathbbE[p_k]$ と $_k2=mathrmVar[p_k]$ に分解する。
論文 参考訳(メタデータ) (2026-02-24T18:05:51Z) - Optimal Unconstrained Self-Distillation in Ridge Regression: Strict Improvements, Precise Asymptotics, and One-Shot Tuning [61.07540493350384]
自己蒸留(英: Self-distillation, SD)とは、教師自身の予測と地道の混合で学生を訓練する過程である。
任意の予測リスクに対して、各正規化レベルにおいて、最適に混合された学生がリッジ教師に改善されることが示される。
本稿では,グリッド探索やサンプル分割,再構成なしに$star$を推定する一貫したワンショットチューニング手法を提案する。
論文 参考訳(メタデータ) (2026-02-19T17:21:15Z) - INC: An Indirect Neural Corrector for Auto-Regressive Hybrid PDE Solvers [61.84396402100827]
本稿では,学習した補正を支配方程式に統合する間接ニューラルコレクタ(mathrmINC$)を提案する。
$mathrmINC$は、$t-1 + L$の順番でエラー増幅を減らし、$t$はタイムステップ、$L$はリプシッツ定数である。
大規模なベンチマークで$mathrmINC$をテストし、1Dカオスシステムから3D乱流まで、多くの異なる解法、神経バックボーン、テストケースをカバーした。
論文 参考訳(メタデータ) (2025-11-16T20:14:28Z) - Numerical Fragility in Transformers: A Layer-wise Theory for Explaining, Forecasting, and Mitigating Instability [0.0]
エラーがいつどこで発生するかを予測する一階のモジュールワイズ理論を提示する。
自己注意のために、3つの解釈可能な診断に分解する層間境界を導出する。
また、精度と幅を意識したLayerNormインジケータ$rho_rm LN$も導入する。
論文 参考訳(メタデータ) (2025-10-17T01:03:02Z) - Calibrated and Robust Foundation Models for Vision-Language and Medical Image Tasks Under Distribution Shift [2.292525568003776]
CLIPやSAMといった基礎モデルには、低ショット転送学習による高度なコンピュータビジョンと医療画像があり、限られたデータでCADDを支援する。
両課題に対処するためのFIPとCMPの融合である textbfStaRFM を提案する。
パッチワイド正規化により3Dに拡張されたFIPを適用し、埋め込みシフトを減らすとともに、ボクセルレベルの予測のために修正されたCMPをセグメンテーションの不確実性に適用する。
論文 参考訳(メタデータ) (2025-07-12T09:39:07Z) - OrthoGrad Improves Neural Calibration [0.0]
$perp$Gradは、過信に対処するために降下方向を制約する。
$perp$Gradは、最適化のための幾何学的な修正である。
論文 参考訳(メタデータ) (2025-06-04T22:12:46Z) - Technical report on label-informed logit redistribution for better domain generalization in low-shot classification with foundation models [3.938980910007962]
信頼度校正は、基礎モデルに基づく現実世界の意思決定システムにおいて、新たな課題である。
本研究では,微調整の際,不正分類を罰する損失目標に組み込んだペナルティを提案する。
CMP(textitconfidence misalignment penalty)と呼ぶ。
論文 参考訳(メタデータ) (2025-01-29T11:54:37Z) - Corruption-Robust Offline Reinforcement Learning with General Function
Approximation [60.91257031278004]
一般関数近似を用いたオフライン強化学習(RL)における劣化問題について検討する。
我々のゴールは、崩壊しないマルコフ決定プロセス(MDP)の最適方針に関して、このような腐敗に対して堅牢で、最適でないギャップを最小限に抑える政策を見つけることである。
論文 参考訳(メタデータ) (2023-10-23T04:07:26Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Noise Stability Optimization for Finding Flat Minima: A Hessian-based Regularization Approach [18.009376840944284]
本稿では,ヘッセン損失行列を効果的に正規化できるアルゴリズムを提案する。
提案手法は,CLIPとチェーン・オブ・ファインチューニングデータセットの事前学習における一般化の改善に有効である。
論文 参考訳(メタデータ) (2023-06-14T14:58:36Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Make Sharpness-Aware Minimization Stronger: A Sparsified Perturbation
Approach [132.37966970098645]
人気のソリューションの1つがSAM(Sharpness-Aware Minimization)であり、摂動を加える際の体重減少の変化を最小限に抑える。
本稿では,Sparse SAM (SSAM) とよばれる効率的な学習手法を提案する。
さらに、S が同じSAM、すなわち $O(log T/sqrtTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTTT で収束できることを理論的に証明する。
論文 参考訳(メタデータ) (2022-10-11T06:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。