論文の概要: Do Explanations Explain? Model Knows Best
- arxiv url: http://arxiv.org/abs/2203.02269v1
- Date: Fri, 4 Mar 2022 12:39:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:37:07.778281
- Title: Do Explanations Explain? Model Knows Best
- Title(参考訳): 説明はできるのか?
モデルが一番知っている
- Authors: Ashkan Khakzar, Pedram Khorsandi, Rozhin Nobahari, Nassir Navab
- Abstract要約: 入力特徴がニューラルネットワークの出力に寄与するミステリーである。
本稿では,ニューラルネットワークモデル自体を用いた説明評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 39.86131552976105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is a mystery which input features contribute to a neural network's output.
Various explanation (feature attribution) methods are proposed in the
literature to shed light on the problem. One peculiar observation is that these
explanations (attributions) point to different features as being important. The
phenomenon raises the question, which explanation to trust? We propose a
framework for evaluating the explanations using the neural network model
itself. The framework leverages the network to generate input features that
impose a particular behavior on the output. Using the generated features, we
devise controlled experimental setups to evaluate whether an explanation method
conforms to an axiom. Thus we propose an empirical framework for axiomatic
evaluation of explanation methods. We evaluate well-known and promising
explanation solutions using the proposed framework. The framework provides a
toolset to reveal properties and drawbacks within existing and future
explanation solutions.
- Abstract(参考訳): これは、入力機能がニューラルネットワークの出力に寄与するミステリーである。
文献では,この問題に光を当てるために,様々な説明法が提案されている。
一つの特異な観察は、これらの説明(帰属)が異なる特徴を重要視していることである。
この現象は疑問を提起し、どの説明を信頼するか?
本稿では,ニューラルネットワークモデル自体を用いた説明評価フレームワークを提案する。
フレームワークはネットワークを利用して、特定の振る舞いを出力に課す入力機能を生成する。
生成した特徴を用いて,説明手法が公理に適合するかどうかを評価するために,制御された実験セットアップを考案する。
そこで本稿では,説明手法の公理的評価のための実証的枠組みを提案する。
提案手法を用いて,よく知られた有望な説明解を評価する。
このフレームワークは、既存および将来の説明ソリューションでプロパティと欠点を明らかにするためのツールセットを提供する。
関連論文リスト
- How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Convex optimization for actionable \& plausible counterfactual
explanations [9.104557591459283]
透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
論文 参考訳(メタデータ) (2021-05-17T06:33:58Z) - A Taxonomy of Explainable Bayesian Networks [0.0]
ベイズネットワークにおける説明可能性の分類について紹介する。
我々は、モデルにおける説明可能性の既存の分類、推論または証拠を拡張して、決定の説明を含める。
論文 参考訳(メタデータ) (2021-01-28T07:29:57Z) - Explanation from Specification [3.04585143845864]
我々は、説明のタイプが仕様によって導かれるアプローチを定式化する。
議論理論を用いたベイズ的ネットワークの説明とグラフニューラルネットワークの説明の2つの例について論じる。
このアプローチは科学哲学における説明理論に動機付けられており、機械学習の役割に関する科学哲学における現在の疑問と関連づけられている。
論文 参考訳(メタデータ) (2020-12-13T23:27:48Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。