論文の概要: Why Uncertainty Calibration Matters for Reliable Perturbation-based Explanations
- arxiv url: http://arxiv.org/abs/2506.19630v1
- Date: Tue, 24 Jun 2025 13:54:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.656005
- Title: Why Uncertainty Calibration Matters for Reliable Perturbation-based Explanations
- Title(参考訳): 信頼性のある摂動に基づく説明のための不確実性校正が重要である理由
- Authors: Thomas Decker, Volker Tresp, Florian Buettner,
- Abstract要約: 本研究では,説明可能性固有の摂動を受けると,モデルが信頼できない確率推定をしばしば生成することを示す。
ReCalXは、摂動に基づく説明を改善するためのモデルを再検討するための新しいアプローチである。
- 参考スコア(独自算出の注目度): 30.47728009839025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perturbation-based explanations are widely utilized to enhance the transparency of modern machine-learning models. However, their reliability is often compromised by the unknown model behavior under the specific perturbations used. This paper investigates the relationship between uncertainty calibration - the alignment of model confidence with actual accuracy - and perturbation-based explanations. We show that models frequently produce unreliable probability estimates when subjected to explainability-specific perturbations and theoretically prove that this directly undermines explanation quality. To address this, we introduce ReCalX, a novel approach to recalibrate models for improved perturbation-based explanations while preserving their original predictions. Experiments on popular computer vision models demonstrate that our calibration strategy produces explanations that are more aligned with human perception and actual object locations.
- Abstract(参考訳): 摂動に基づく説明は、現代の機械学習モデルの透明性を高めるために広く利用されている。
しかし、その信頼性はしばしば、使用する特定の摂動の下での未知のモデル行動によって損なわれる。
本稿では,不確実性キャリブレーション(モデル信頼度と実際の精度の整合性)と摂動に基づく説明の関係について検討する。
モデルが説明可能性固有の摂動を受けると、信頼できない確率推定をしばしば生成し、それが説明品質を損なうことを理論的に証明する。
そこで我々はReCalXを提案する。ReCalXは従来の予測を保ちながら摂動に基づく説明を改善するためのモデルを再検討する新しい手法である。
一般的なコンピュータビジョンモデルの実験では、キャリブレーション戦略が人間の知覚や実際の物体の位置とより一致した説明を生み出すことが示されている。
関連論文リスト
- Investigating the Impact of Model Instability on Explanations and Uncertainty [43.254616360807496]
テキスト入力における不確かさを推測時に雑音を導入することでシミュレートする。
高い不確実性は必ずしも説明可能性の低さを暗示しない。
このことは、ノイズ増強モデルが不確実性のあるトークンを特定するのに優れていることを示唆している。
論文 参考訳(メタデータ) (2024-02-20T13:41:21Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Calibration-Aware Bayesian Learning [37.82259435084825]
本稿では、キャリブレーション対応ベイズニューラルネットワーク(CA-BNN)と呼ばれる統合フレームワークを提案する。
ベイズ学習のように変分分布を最適化しながら、データ依存あるいはデータ非依存の正則化をそれぞれ適用する。
予測キャリブレーション誤差(ECE)と信頼性図を用いて,提案手法の利点を検証した。
論文 参考訳(メタデータ) (2023-05-12T14:19:15Z) - Calibrate: Interactive Analysis of Probabilistic Model Output [5.444048397001003]
従来の手法の欠点に耐性のある,インタラクティブな信頼性図であるCalibrateを提示する。
実世界のデータと合成データの両方のユースケースを通じて、Calibrateの実用性を実証する。
論文 参考訳(メタデータ) (2022-07-27T20:01:27Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Why Calibration Error is Wrong Given Model Uncertainty: Using Posterior
Predictive Checks with Deep Learning [0.0]
キャリブレーション誤差とその変種が、モデルの不確実性によってほとんど常に正しくないことを示す。
このミスがいかにして悪いモデルへの信頼と良いモデルへの信頼につながるかを示します。
論文 参考訳(メタデータ) (2021-12-02T18:26:30Z) - Quantifying Model Predictive Uncertainty with Perturbation Theory [21.591460685054546]
本稿では,ニューラルネットワークの予測不確実性定量化のためのフレームワークを提案する。
量子物理学の摂動理論を用いてモーメント分解問題を定式化する。
我々の手法は、より高精度でキャリブレーションの高い高速なモデル予測不確実性推定を提供する。
論文 参考訳(メタデータ) (2021-09-22T17:55:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。