論文の概要: Evaluating the overall sensitivity of saliency-based explanation methods
- arxiv url: http://arxiv.org/abs/2306.13682v1
- Date: Wed, 21 Jun 2023 21:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-02 13:36:02.068501
- Title: Evaluating the overall sensitivity of saliency-based explanation methods
- Title(参考訳): 塩分に基づく説明法の総合的感度評価
- Authors: Harshinee Sriram and Cristina Conati
- Abstract要約: 我々は「ブラックボックス」ディープラーニングモデルの忠実な説明を作成する必要性に対処する。
モデル非依存の既存のテストを選択し、形式的なスレッシュオールドと構築基準を指定して拡張する。
感度と忠実度の関係を議論し、他の領域における異なる説明方法を評価するためにテストをどのように適用できるかを検討する。
- 参考スコア(独自算出の注目度): 1.8655840060559168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the need to generate faithful explanations of "black box" Deep
Learning models. Several tests have been proposed to determine aspects of
faithfulness of explanation methods, but they lack cross-domain applicability
and a rigorous methodology. Hence, we select an existing test that is model
agnostic and is well-suited for comparing one aspect of faithfulness (i.e.,
sensitivity) of multiple explanation methods, and extend it by specifying
formal thresh-olds and building criteria to determine the over-all sensitivity
of the explanation method. We present examples of how multiple explanation
methods for Convolutional Neural Networks can be compared using this extended
methodology. Finally, we discuss the relationship between sensitivity and
faithfulness and consider how the test can be adapted to assess different
explanation methods in other domains.
- Abstract(参考訳): 我々は「ブラックボックス」ディープラーニングモデルの忠実な説明を作成する必要性に対処する。
説明手法の忠実性の側面を決定するためにいくつかの試験が提案されているが、ドメイン間の適用性や厳密な方法論は欠如している。
したがって,複数の説明法の忠実性(すなわち,感度)の1つの側面を比較するのに適したモデル非依存で既存のテストを選択し,形式的なthresh-oldsの指定と,説明法の過度な感度を決定するための基準の構築により,それを拡張する。
本稿では,この拡張手法を用いて畳み込みニューラルネットワークの複数の説明手法を比較できる例を示す。
最後に,感度と忠実性の関係を考察し,他の領域における異なる説明方法を評価するためにテストをどのように適用できるかを検討する。
関連論文リスト
- Sanity Checks for Saliency Methods Explaining Object Detectors [5.735035463793008]
ディープニューラルネットワークベースのモデルを説明するために、サリエンシ法が頻繁に使用される。
対象物検出のための正当性チェックを行い,正当性説明を評価するための新しい質的基準を定義した。
EfficientDet-D0はSaliency法とは無関係に最も解釈可能な手法である。
論文 参考訳(メタデータ) (2023-06-04T17:57:51Z) - Evaluating the Robustness of Interpretability Methods through
Explanation Invariance and Equivariance [72.50214227616728]
解釈可能性法は、それらの説明が説明されたモデルを忠実に記述した場合にのみ有用である。
特定の対称性群の下で予測が不変であるニューラルネットワークを考える。
論文 参考訳(メタデータ) (2023-04-13T17:59:03Z) - On The Coherence of Quantitative Evaluation of Visual Explanations [0.7212939068975619]
視覚的説明の「良さ」を評価するための評価手法が提案されている。
我々はImageNet-1k検証セットのサブセットについて検討し、多くの一般的な説明手法を評価した。
本研究の結果から, 評価方法のいくつかは, 階調のコヒーレンシーが欠如していることが示唆された。
論文 参考訳(メタデータ) (2023-02-14T13:41:57Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - On Sample Based Explanation Methods for NLP:Efficiency, Faithfulness,
and Semantic Evaluation [23.72825603188359]
我々は、任意のテキストシーケンスを説明単位として許容することにより、説明の解釈可能性を向上させることができる。
本研究では,人間による説明の判断に適合する意味に基づく評価指標を提案する。
論文 参考訳(メタデータ) (2021-06-09T00:49:56Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。