論文の概要: Sanity Checks for Explanation Uncertainty
- arxiv url: http://arxiv.org/abs/2403.17212v1
- Date: Mon, 25 Mar 2024 21:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 19:26:23.241124
- Title: Sanity Checks for Explanation Uncertainty
- Title(参考訳): 説明の不確かさの正当性チェック
- Authors: Matias Valdenegro-Toro, Mihir Mulye,
- Abstract要約: 機械学習モデルの説明は解釈し難いり、間違っていたりすることがある。
本研究では,不確実性のある説明のために,重みとデータランダム化テストを定義した不確実性説明のための正当性チェックを提案する。
CIFAR10およびCalifornia Housingデータセットにおけるこれらの試験の有効性と有効性について実験的に検討した。
- 参考スコア(独自算出の注目度): 6.9060054915724
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Explanations for machine learning models can be hard to interpret or be wrong. Combining an explanation method with an uncertainty estimation method produces explanation uncertainty. Evaluating explanation uncertainty is difficult. In this paper we propose sanity checks for uncertainty explanation methods, where a weight and data randomization tests are defined for explanations with uncertainty, allowing for quick tests to combinations of uncertainty and explanation methods. We experimentally show the validity and effectiveness of these tests on the CIFAR10 and California Housing datasets, noting that Ensembles seem to consistently pass both tests with Guided Backpropagation, Integrated Gradients, and LIME explanations.
- Abstract(参考訳): 機械学習モデルの説明は解釈し難いり、間違っていたりすることがある。
説明法と不確実性推定法を組み合わせることで、説明の不確実性を生成する。
説明の不確実性を評価することは難しい。
本稿では、不確実性のある説明のために重みとデータランダム化テストを定義し、不確実性と説明法の組み合わせに対する迅速なテストを可能にする、不確実性説明法に対する正当性チェックを提案する。
CIFAR10とCalifornia Housingのデータセットにおけるこれらのテストの有効性と有効性について実験的に明らかにし、Ensemblesはガイドバックプロパゲーション、統合グラディエンス、LIME説明の両方で一貫してテストに合格しているように見えることを指摘した。
関連論文リスト
- Uncertainty Quantification for Gradient-based Explanations in Neural Networks [6.9060054915724]
ニューラルネットワークの説明の不確実性を確認するパイプラインを提案する。
このパイプラインを使用して、CIFAR-10、FER+、California Housingデータセットの説明分布を生成する。
修正画素挿入/削除のメトリクスを計算し、生成した説明の質を評価する。
論文 参考訳(メタデータ) (2024-03-25T21:56:02Z) - Investigating the Impact of Model Instability on Explanations and
Uncertainty [48.61385403377465]
テキスト入力における不確かさを推測時に雑音を導入することでシミュレートする。
高い不確実性は必ずしも説明可能性の低さを暗示しない。
このことは、ノイズ増強モデルが不確実性のあるトークンを特定するのに優れていることを示唆している。
論文 参考訳(メタデータ) (2024-02-20T13:41:21Z) - Identifying Drivers of Predictive Uncertainty using Variance Feature
Attribution [2.765106384328772]
変数特徴属性は、予測的アレタリック不確実性を説明するための単純でスケーラブルなソリューションである。
提案手法は,確立されたベースラインCLUEよりも,不確実性の影響を確実かつ高速に説明できることを示す。
我々の説明は笑い線のような不確実性の原因を浮き彫りにする。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Uncertain Evidence in Probabilistic Models and Stochastic Simulators [80.40110074847527]
我々は、不確実性を伴う観測を伴う確率論的モデルにおいて、ベイズ的推論を行うという問題について考察する。
我々は、不確実な証拠をどう解釈するかを探求し、潜伏変数の推論に関連する適切な解釈の重要性を拡大する。
我々は、不確実な証拠を説明するための具体的なガイドラインを考案し、特に一貫性に関する新しい洞察を提供する。
論文 参考訳(メタデータ) (2022-10-21T20:32:59Z) - Boundary-Aware Uncertainty for Feature Attribution Explainers [4.2130431095114895]
本稿では,不確実性を考慮した決定境界認識と説明関数近似の不確実性を組み合わせた統一的不確実性推定法を提案する。
提案するカーネルの類似性は,決定境界の複雑さによって増大することを示す。
複数のデータセットに対する実験結果から,GPECの不確実性推定は既存手法と比較して説明の理解を改善することが示された。
論文 参考訳(メタデータ) (2022-10-05T17:37:14Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Uncertainty Estimation and Out-of-Distribution Detection for
Counterfactual Explanations: Pitfalls and Solutions [7.106279650827998]
生成された説明がトレーニングデータにしっかりと根付いていて、分布シフトに敏感かどうかを判断することはしばしば困難である。
本稿では,これらの問題を解決するために活用できる実用的ソリューションをいくつか提案する。
論文 参考訳(メタデータ) (2021-07-20T19:09:10Z) - Comprehensible Counterfactual Explanation on Kolmogorov-Smirnov Test [56.5373227424117]
我々は,KSテストに失敗するテストデータに対して,反実的説明を生成する問題に対処する。
我々は、KSテストに失敗したテストセットの指数的なサブセット数を列挙し、チェックするのを避ける効率的なアルゴリズムMOCHEを開発した。
論文 参考訳(メタデータ) (2020-11-01T06:46:01Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。