論文の概要: Uncertainty Estimation and Out-of-Distribution Detection for
Counterfactual Explanations: Pitfalls and Solutions
- arxiv url: http://arxiv.org/abs/2107.09734v1
- Date: Tue, 20 Jul 2021 19:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:24:22.793476
- Title: Uncertainty Estimation and Out-of-Distribution Detection for
Counterfactual Explanations: Pitfalls and Solutions
- Title(参考訳): 反事実的説明のための不確実性推定と分散検出:落とし穴と解
- Authors: Eoin Delaney, Derek Greene and Mark T. Keane
- Abstract要約: 生成された説明がトレーニングデータにしっかりと根付いていて、分布シフトに敏感かどうかを判断することはしばしば困難である。
本稿では,これらの問題を解決するために活用できる実用的ソリューションをいくつか提案する。
- 参考スコア(独自算出の注目度): 7.106279650827998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whilst an abundance of techniques have recently been proposed to generate
counterfactual explanations for the predictions of opaque black-box systems,
markedly less attention has been paid to exploring the uncertainty of these
generated explanations. This becomes a critical issue in high-stakes scenarios,
where uncertain and misleading explanations could have dire consequences (e.g.,
medical diagnosis and treatment planning). Moreover, it is often difficult to
determine if the generated explanations are well grounded in the training data
and sensitive to distributional shifts. This paper proposes several practical
solutions that can be leveraged to solve these problems by establishing novel
connections with other research works in explainability (e.g., trust scores)
and uncertainty estimation (e.g., Monte Carlo Dropout). Two experiments
demonstrate the utility of our proposed solutions.
- Abstract(参考訳): 最近、不透明なブラックボックスシステムの予測に対する反実的な説明を生成する技術が多数提案されているが、これらの説明の不確実性を探るためには、著しく注意が払われていない。
これは、不確実で誤解を招く説明がひどい結果をもたらす(医療診断や治療計画など)高リスクシナリオにおいて、重要な問題となる。
また,生成した説明が訓練データによく基づいていて,分布シフトに敏感であるかどうかを判断することが難しい場合が多い。
本稿では,説明可能性(信頼度など)と不確実性推定(モンテカルロ・ドロップアウトなど)における他の研究成果との新たなつながりを確立することで,これらの問題を解決するために活用できるいくつかの実用的な解決策を提案する。
提案手法の有効性を実証する2つの実験を行った。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Ensured: Explanations for Decreasing the Epistemic Uncertainty in Predictions [1.2289361708127877]
認識の不確実性は、品質を説明するために重要な次元を付け加える。
我々は、この不確実性を特に狙う新しいタイプの説明を紹介します。
我々は、ユーザが最も信頼できる説明を識別できるように設計された新しい指標、保証されたランキングを導入する。
論文 参考訳(メタデータ) (2024-10-07T20:21:51Z) - Identifying Drivers of Predictive Aleatoric Uncertainty [2.5311562666866494]
本稿では,予測的アレタリック不確実性を説明するための簡単なアプローチを提案する。
我々は、ガウス出力分布にニューラルネットワークを適用することにより、不確実性を予測分散として推定する。
我々は、実世界のデータセットを含むニュアンスなベンチマーク分析を用いて、この結果の定量化を行う。
論文 参考訳(メタデータ) (2023-12-12T13:28:53Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Boundary-Aware Uncertainty for Feature Attribution Explainers [4.2130431095114895]
本稿では,不確実性を考慮した決定境界認識と説明関数近似の不確実性を組み合わせた統一的不確実性推定法を提案する。
提案するカーネルの類似性は,決定境界の複雑さによって増大することを示す。
複数のデータセットに対する実験結果から,GPECの不確実性推定は既存手法と比較して説明の理解を改善することが示された。
論文 参考訳(メタデータ) (2022-10-05T17:37:14Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z) - Amnesic Probing: Behavioral Explanation with Amnesic Counterfactuals [53.484562601127195]
調査結果から行動学的結論を推測できない点を指摘する。
我々は、どの情報がエンコードされているかではなく、その情報がどのように使われているかに焦点を当てた代替手段を提供する。
論文 参考訳(メタデータ) (2020-06-01T15:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。