論文の概要: Improving Perturbation-based Explanations by Understanding the Role of Uncertainty Calibration
- arxiv url: http://arxiv.org/abs/2511.10439v1
- Date: Fri, 14 Nov 2025 01:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.871082
- Title: Improving Perturbation-based Explanations by Understanding the Role of Uncertainty Calibration
- Title(参考訳): 不確実性校正の役割理解による摂動に基づく説明の改善
- Authors: Thomas Decker, Volker Tresp, Florian Buettner,
- Abstract要約: 本研究では,モデルが説明可能性に比例した摂動を受けると,信頼できない確率推定値が得られることを示す。
本稿では,ReCalXを提案する。ReCalXは,従来の予測を保ちながら,改善された説明のためのモデルの再検討を行う新しい手法である。
- 参考スコア(独自算出の注目度): 34.62583246144584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perturbation-based explanations are widely utilized to enhance the transparency of machine-learning models in practice. However, their reliability is often compromised by the unknown model behavior under the specific perturbations used. This paper investigates the relationship between uncertainty calibration - the alignment of model confidence with actual accuracy - and perturbation-based explanations. We show that models systematically produce unreliable probability estimates when subjected to explainability-specific perturbations and theoretically prove that this directly undermines global and local explanation quality. To address this, we introduce ReCalX, a novel approach to recalibrate models for improved explanations while preserving their original predictions. Empirical evaluations across diverse models and datasets demonstrate that ReCalX consistently reduces perturbation-specific miscalibration most effectively while enhancing explanation robustness and the identification of globally important input features.
- Abstract(参考訳): 摂動に基づく説明は、実際に行われている機械学習モデルの透明性を高めるために広く利用されている。
しかし、その信頼性はしばしば、使用する特定の摂動の下での未知のモデル行動によって損なわれる。
本稿では,不確実性キャリブレーション(モデル信頼度と実際の精度の整合性)と摂動に基づく説明の関係について検討する。
本研究では, モデルが説明可能性固有の摂動を受けると, 信頼できない確率推定を体系的に生成し, 理論上はグローバルおよびローカルな説明品質を損なうことを示す。
そこで我々はReCalXについて紹介する。ReCalXはモデルを再検討し、元の予測を保ちながら説明を改良する手法である。
多様なモデルやデータセットにまたがる実証的な評価は、ReCalXが常に摂動特異的な誤校正を最も効果的に削減し、説明の堅牢性とグローバルな重要な入力特徴の識別を強化していることを示している。
関連論文リスト
- Why Uncertainty Calibration Matters for Reliable Perturbation-based Explanations [30.47728009839025]
本研究では,説明可能性固有の摂動を受けると,モデルが信頼できない確率推定をしばしば生成することを示す。
ReCalXは、摂動に基づく説明を改善するためのモデルを再検討するための新しいアプローチである。
論文 参考訳(メタデータ) (2025-06-24T13:54:12Z) - Bridging Interpretability and Robustness Using LIME-Guided Model Refinement [0.0]
LIME(Local Interpretable Model-Agnostic Explanations)は、モデルロバスト性を体系的に強化する。
複数のベンチマークデータセットに対する実証的な評価は、LIME誘導の洗練は解釈可能性を改善するだけでなく、敵の摂動に対する耐性を著しく向上し、アウト・オブ・ディストリビューションデータへの一般化を促進することを示している。
論文 参考訳(メタデータ) (2024-12-25T17:32:45Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Knowledge Distillation Performs Partial Variance Reduction [93.6365393721122]
知識蒸留は'学生'モデルの性能を高めるための一般的な手法である。
知識蒸留(KD)の背後にある力学は、まだ完全には理解されていない。
我々は,KDを新しいタイプの分散還元機構として解釈できることを示す。
論文 参考訳(メタデータ) (2023-05-27T21:25:55Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。