論文の概要: Framework for Evaluating Faithfulness of Local Explanations
- arxiv url: http://arxiv.org/abs/2202.00734v1
- Date: Tue, 1 Feb 2022 20:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 13:48:24.073642
- Title: Framework for Evaluating Faithfulness of Local Explanations
- Title(参考訳): 地域説明の忠実度評価のための枠組み
- Authors: Sanjoy Dasgupta, Nave Frost, Michal Moshkovitz
- Abstract要約: 本稿では,その基礎となる予測モデルに対する説明システムの忠実さについて考察する。
アンカーなどの既存システムでは,これらの量について解析的に検討する。
ブラックボックスの説明システムの忠実度を実証的に決定するための推定器とサンプル複雑性境界を提供する。
- 参考スコア(独自算出の注目度): 21.648639081403754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the faithfulness of an explanation system to the underlying
prediction model. We show that this can be captured by two properties,
consistency and sufficiency, and introduce quantitative measures of the extent
to which these hold. Interestingly, these measures depend on the test-time data
distribution. For a variety of existing explanation systems, such as anchors,
we analytically study these quantities. We also provide estimators and sample
complexity bounds for empirically determining the faithfulness of black-box
explanation systems. Finally, we experimentally validate the new properties and
estimators.
- Abstract(参考訳): 基礎となる予測モデルに対する説明システムの忠実性について検討する。
このことは,一貫性と十分性という2つの性質によって捉えることができ,その程度を定量的に測定できることを示す。
興味深いことに、これらの測定はテスト時のデータ分布に依存する。
アンカーなどの既存システムでは,これらの量について解析的に検討する。
また,ブラックボックス説明システムの忠実さを実証的に決定するための推定子とサンプル複雑性境界も提供する。
最後に,新しい特性と推定器を実験的に検証した。
関連論文リスト
- Rethinking Distance Metrics for Counterfactual Explainability [53.436414009687]
本研究では, 反事実を参照領域から独立して引き出すのではなく, 基礎となるデータ分布からの参照と共同してサンプリングする, 反事実生成手法のフレーミングについて検討する。
我々は、幅広い設定に適用可能な、反ファクト的な類似性のために調整された距離メートル法を導出する。
論文 参考訳(メタデータ) (2024-10-18T15:06:50Z) - On the stability, correctness and plausibility of visual explanation
methods based on feature importance [0.0]
画像分類器の特徴的重要性に基づいて, 説明の安定性, 正確性, 妥当性の相違について検討した。
これらの特性を評価するための既存の指標は必ずしも一致せず、説明のための優れた評価基準を構成するものの問題を提起する。
論文 参考訳(メタデータ) (2023-10-25T08:59:21Z) - On the Properties and Estimation of Pointwise Mutual Information Profiles [49.877314063833296]
ポイントワイド相互情報プロファイル(ポイントワイド相互情報プロファイル、英: pointwise mutual information profile)は、与えられた確率変数のペアに対するポイントワイド相互情報の分布である。
そこで我々は,モンテカルロ法を用いて分布を正確に推定できる新しい分布系 Bend と Mix Models を導入する。
論文 参考訳(メタデータ) (2023-10-16T10:02:24Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Data-Driven Observability Analysis for Nonlinear Stochastic Systems [5.4511976387114895]
区別可能性と可観測性は力学系の鍵となる性質である。
両概念は線形システムを含むシステムのクラスに等価であることを示す。
2つの状態が高信頼で識別可能なしきい値を決定するための統計的テストを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:51:03Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach [1.3750624267664155]
我々は, 多様な自己記述型サロゲート説明器の集合間のコンセンサスを測定することによって, 与えられた説明の不確かさを推定する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの特性を実証的に説明する。
論文 参考訳(メタデータ) (2021-11-17T13:55:58Z) - Estimating informativeness of samples with Smooth Unique Information [108.25192785062367]
サンプルが最終的な重みを知らせる量と、重みによって計算される関数を知らせる量を測定します。
線形化ネットワークを用いてこれらの量の効率的な近似を行う。
本稿では,データセットの要約など,いくつかの問題に適用する。
論文 参考訳(メタデータ) (2021-01-17T10:29:29Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - Explaining predictive models with mixed features using Shapley values
and conditional inference trees [1.8065361710947976]
シェープな値は、あらゆる種類の機械学習モデルからの予測を説明するためのサウンドメソッドとして際立っている。
本研究では,条件付き推論木を用いた特徴の依存構造をモデル化し,混合依存的特徴を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-07-02T11:25:45Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。