論文の概要: Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach
- arxiv url: http://arxiv.org/abs/2111.09121v1
- Date: Wed, 17 Nov 2021 13:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 13:50:06.126092
- Title: Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach
- Title(参考訳): 代理説明の不確実性定量化--順序コンセンサスアプローチ
- Authors: Jonas Schulz, Rafael Poyiadzi, Raul Santos-Rodriguez
- Abstract要約: 我々は, 多様な自己記述型サロゲート説明器の集合間のコンセンサスを測定することによって, 与えられた説明の不確かさを推定する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの特性を実証的に説明する。
- 参考スコア(独自算出の注目度): 1.3750624267664155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability of black-box machine learning models is crucial, in particular
when deployed in critical applications such as medicine or autonomous cars.
Existing approaches produce explanations for the predictions of models,
however, how to assess the quality and reliability of such explanations remains
an open question. In this paper we take a step further in order to provide the
practitioner with tools to judge the trustworthiness of an explanation. To this
end, we produce estimates of the uncertainty of a given explanation by
measuring the ordinal consensus amongst a set of diverse bootstrapped surrogate
explainers. While we encourage diversity by using ensemble techniques, we
propose and analyse metrics to aggregate the information contained within the
set of explainers through a rating scheme. We empirically illustrate the
properties of this approach through experiments on state-of-the-art
Convolutional Neural Network ensembles. Furthermore, through tailored
visualisations, we show specific examples of situations where uncertainty
estimates offer concrete actionable insights to the user beyond those arising
from standard surrogate explainers.
- Abstract(参考訳): ブラックボックス機械学習モデルの説明可能性は、特に医療や自動運転車といった重要なアプリケーションにデプロイする場合に不可欠である。
既存のアプローチはモデルの予測のための説明を生成するが、そのような説明の質と信頼性をどのように評価するかは未解決である。
本稿では,説明の信頼性を判断するツールを実践者に提供するために,さらに一歩進める。
この目的のために,多様なブートストラップ型サロゲート説明器群間の順序コンセンサスを測定することにより,与えられた説明の不確実性の推定を行う。
我々は,アンサンブル手法を用いて多様性を奨励する一方で,評価手法を通じて説明者の集合に含まれる情報を集約するメトリクスを提案し,分析する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの性質を実証的に示す。
さらに,不確実性推定がユーザに対して,標準的な代理説明者から生じているもの以外の具体的な洞察を与える状況の具体例を示す。
関連論文リスト
- Towards a Unified Framework for Evaluating Explanations [0.6138671548064356]
我々は、モデルと利害関係者の間の仲介者として、本質的に解釈可能なモデルであれ、不透明なブラックボックスモデルであれ、説明が役立ちます。
本稿では,学習者の行動を予測するための解釈可能なニューラルネットワークの例を用いて,これらの基準と具体的な評価手法について述べる。
論文 参考訳(メタデータ) (2024-05-22T21:49:28Z) - Estimation of Concept Explanations Should be Uncertainty Aware [39.598213804572396]
概念説明(Concept Explanations)と呼ばれる特定の概念について研究し、人間の理解可能な概念を用いてモデルを解釈することを目的としている。
簡単な解釈で人気があるが、概念的な説明は騒々しいことが知られている。
本稿では,これらの問題に対処する不確実性を考慮したベイズ推定手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T11:17:27Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Framework for Evaluating Faithfulness of Local Explanations [21.648639081403754]
本稿では,その基礎となる予測モデルに対する説明システムの忠実さについて考察する。
アンカーなどの既存システムでは,これらの量について解析的に検討する。
ブラックボックスの説明システムの忠実度を実証的に決定するための推定器とサンプル複雑性境界を提供する。
論文 参考訳(メタデータ) (2022-02-01T20:14:06Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。