論文の概要: Reliable Post hoc Explanations: Modeling Uncertainty in Explainability
- arxiv url: http://arxiv.org/abs/2008.05030v4
- Date: Sat, 6 Nov 2021 18:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 10:44:53.721325
- Title: Reliable Post hoc Explanations: Modeling Uncertainty in Explainability
- Title(参考訳): 信頼性の高いポストホック説明:不確かさのモデル化
- Authors: Dylan Slack, Sophie Hilgard, Sameer Singh, Himabindu Lakkaraju
- Abstract要約: ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
- 参考スコア(独自算出の注目度): 44.9824285459365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As black box explanations are increasingly being employed to establish model
credibility in high-stakes settings, it is important to ensure that these
explanations are accurate and reliable. However, prior work demonstrates that
explanations generated by state-of-the-art techniques are inconsistent,
unstable, and provide very little insight into their correctness and
reliability. In addition, these methods are also computationally inefficient,
and require significant hyper-parameter tuning. In this paper, we address the
aforementioned challenges by developing a novel Bayesian framework for
generating local explanations along with their associated uncertainty. We
instantiate this framework to obtain Bayesian versions of LIME and KernelSHAP
which output credible intervals for the feature importances, capturing the
associated uncertainty. The resulting explanations not only enable us to make
concrete inferences about their quality (e.g., there is a 95% chance that the
feature importance lies within the given range), but are also highly consistent
and stable. We carry out a detailed theoretical analysis that leverages the
aforementioned uncertainty to estimate how many perturbations to sample, and
how to sample for faster convergence. This work makes the first attempt at
addressing several critical issues with popular explanation methods in one
shot, thereby generating consistent, stable, and reliable explanations with
guarantees in a computationally efficient manner. Experimental evaluation with
multiple real world datasets and user studies demonstrate that the efficacy of
the proposed framework.
- Abstract(参考訳): ブラックボックスの説明は、高所でモデル信頼性を確立するためにますます採用されているため、これらの説明が正確で信頼性が高いことを保証することが重要である。
しかし、先行研究は、最先端技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についてはほとんど洞察できないことを示した。
加えて、これらの手法は計算量的に非効率であり、重要なハイパーパラメータチューニングを必要とする。
本稿では,局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発することにより,上記の課題を解決する。
このフレームワークをインスタンス化し、LIME と KernelSHAP のベイズ版を入手し、特徴量に対する信頼区間を出力し、関連する不確実性をキャプチャする。
結果として得られた説明は、その品質に関する具体的な推論を可能にするだけでなく(例えば、特徴の重要性が与えられた範囲内にある確率は95%)、高度に一貫性があり安定である。
我々は、上記の不確実性を利用して、サンプルの摂動数を推定し、より高速な収束のためにサンプリングする方法を詳細に理論的に分析する。
この研究は、一般的な説明法でいくつかの重要な問題に一発で対処し、一貫性があり、安定し、信頼性の高い説明を、計算効率のよい方法で生成する最初の試みである。
複数の実世界データセットを用いた実験評価とユーザスタディにより,提案手法の有効性が実証された。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - FTS: A Framework to Find a Faithful TimeSieve [43.46528328262752]
本稿では,TimeSieveにおける不信の識別と修正を目的とした新しいフレームワークを提案する。
我々のフレームワークは、モデルの安定性と忠実性を高めるために設計されており、その出力が上記の要因の影響を受けにくいことを保証します。
論文 参考訳(メタデータ) (2024-05-30T02:59:49Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Calibrated Explanations: with Uncertainty Information and
Counterfactuals [0.1843404256219181]
Calibrated Explanations (CE)はVenn-Abersの基礎の上に構築されている。
これは特徴量とモデルの確率推定の両方に対して不確実な定量化を提供する。
25のベンチマークデータセットによる評価の結果は,CEの有効性を裏付けるものだった。
論文 参考訳(メタデータ) (2023-05-03T17:52:41Z) - SoK: Modeling Explainability in Security Analytics for Interpretability,
Trustworthiness, and Usability [2.656910687062026]
高信頼のセキュリティアプリケーションにおいて、解釈可能性、信頼性、およびユーザビリティが重要な考慮事項である。
ディープラーニングモデルは、分類や予測につながる重要な特徴や要因を特定するブラックボックスとして振る舞う。
ほとんどの説明法は矛盾した説明を提供し、忠実度は低く、敵の操作に影響を受けやすい。
論文 参考訳(メタデータ) (2022-10-31T15:01:49Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - On the Trustworthiness of Tree Ensemble Explainability Methods [0.9558392439655014]
特徴重要度法(ゲインやSHAPなど)は、このニーズに対処する最も一般的な説明可能性法の一つである。
信頼できる、意味のある説明可能性のテクニックは、正確で安定した説明を提供する必要があります。
シミュレーションと4つの実世界のデータセットを用いた包括的実験により,グローバルな特徴重要度手法の精度と安定性を評価する。
論文 参考訳(メタデータ) (2021-09-30T20:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。