論文の概要: There and Back Again: Revisiting Backpropagation Saliency Methods
- arxiv url: http://arxiv.org/abs/2004.02866v1
- Date: Mon, 6 Apr 2020 17:58:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:13:14.101186
- Title: There and Back Again: Revisiting Backpropagation Saliency Methods
- Title(参考訳): ここで再び、バックバックする - バックプロパゲーション・サリエンシ・メソッドを再考する
- Authors: Sylvestre-Alvise Rebuffi, Ruth Fong, Xu Ji, Andrea Vedaldi
- Abstract要約: 正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 87.40330595283969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Saliency methods seek to explain the predictions of a model by producing an
importance map across each input sample. A popular class of such methods is
based on backpropagating a signal and analyzing the resulting gradient. Despite
much research on such methods, relatively little work has been done to clarify
the differences between such methods as well as the desiderata of these
techniques. Thus, there is a need for rigorously understanding the
relationships between different methods as well as their failure modes. In this
work, we conduct a thorough analysis of backpropagation-based saliency methods
and propose a single framework under which several such methods can be unified.
As a result of our study, we make three additional contributions. First, we use
our framework to propose NormGrad, a novel saliency method based on the spatial
contribution of gradients of convolutional weights. Second, we combine saliency
maps at different layers to test the ability of saliency methods to extract
complementary information at different network levels (e.g.~trading off spatial
resolution and distinctiveness) and we explain why some methods fail at
specific layers (e.g., Grad-CAM anywhere besides the last convolutional layer).
Third, we introduce a class-sensitivity metric and a meta-learning inspired
paradigm applicable to any saliency method for improving sensitivity to the
output class being explained.
- Abstract(参考訳): 正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
このような手法に関する多くの研究にもかかわらず、これらの手法とこれらの手法のデシラタの違いを明らかにするための研究は比較的少ない。
したがって、異なるメソッド間の関係とそれらの失敗モードを厳密に理解する必要がある。
本研究では,バックプロパゲーションに基づくサリエンシ手法の徹底的な解析を行い,そのような手法を統一できる単一の枠組みを提案する。
研究の結果、さらに3つの貢献がなされました。
まず、我々のフレームワークを用いて、畳み込み重みの勾配の空間的寄与に基づく新しいサリエンシ手法であるNormGradを提案する。
第2に,異なる層におけるサリエンシーマップを組み合わせることで,異なるネットワークレベルでの補完的情報を抽出するサリエンシー手法(例: 空間分解能と識別性)のテストを行い,特定の層においていくつかの手法が失敗する理由を説明する(例: grad-cam は最終畳み込み層以外のどこにでもある)。
第3に、クラス感度の指標とメタラーニングにインスパイアされたパラダイムを導入し、説明対象の出力クラスの感度を向上させる。
関連論文リスト
- Unsupervised Discovery of Interpretable Directions in h-space of
Pre-trained Diffusion Models [63.1637853118899]
本稿では,事前学習した拡散モデルのh空間における解釈可能な方向を特定するための,教師なしおよび学習に基づく最初の手法を提案する。
我々は、事前訓練された拡散モデルのh-スペースで動作するシフト制御モジュールを用いて、サンプルをシフトしたバージョンに操作する。
それらを共同で最適化することで、モデルは自然に絡み合った、解釈可能な方向を発見する。
論文 参考訳(メタデータ) (2023-10-15T18:44:30Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Geometrically Guided Integrated Gradients [0.3867363075280543]
我々は「幾何学的誘導積分勾配」と呼ばれる解釈可能性法を導入する。
提案手法は,入力の複数のスケールバージョンからモデルの動的挙動を探索し,各入力に対する最適な属性をキャプチャする。
また,従来のモデルランダム化試験を補完する「モデル摂動」正当性チェックを提案する。
論文 参考訳(メタデータ) (2022-06-13T05:05:43Z) - Towards Better Understanding Attribution Methods [77.1487219861185]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
また,いくつかの属性法の性能を著しく向上する処理後平滑化ステップを提案する。
論文 参考訳(メタデータ) (2022-05-20T20:50:17Z) - A Survey on Deep Semi-supervised Learning [51.26862262550445]
まず,既存の手法を分類した深層半指導学習の分類法を提案する。
次に、損失の種類、貢献度、アーキテクチャの違いの観点から、これらのメソッドを詳細に比較します。
論文 参考訳(メタデータ) (2021-02-28T16:22:58Z) - Multi-head Knowledge Distillation for Model Compression [65.58705111863814]
そこで本研究では,中間層における特徴マッチングのための補助分類器を用いた簡易実装法を提案する。
提案手法は,本論文で提示された従来手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-05T00:49:14Z) - Explaining by Removing: A Unified Framework for Model Explanation [14.50261153230204]
削除に基づく説明は、各特徴の影響を定量化するための特徴除去をシミュレートする原則に基づいている。
1) メソッドが特徴を除去する方法,2) メソッドが説明するモデル動作,3) メソッドがそれぞれの特徴の影響を要約する方法,の3つの側面に沿って各メソッドを特徴付けるフレームワークを開発する。
新たに理解された説明手法のクラスは、説明可能性の文献にほとんど見落とされたツールを用いて、豊富なつながりを持つ。
論文 参考訳(メタデータ) (2020-11-21T00:47:48Z) - Feature Removal Is a Unifying Principle for Model Explanation Methods [14.50261153230204]
文献を検証した結果,多くの手法が,削除による説明の共有原理に基づいていることがわかった。
本研究では,3次元にまたがる各手法を特徴付ける,除去に基づく説明のためのフレームワークを開発する。
我々のフレームワークは26の既存メソッドを統一し、最も広く使われているアプローチをいくつか含む。
論文 参考訳(メタデータ) (2020-11-06T22:37:55Z) - DANCE: Enhancing saliency maps using decoys [35.46266461621123]
本稿では,2段階の手順に従うことで,サリエンシ手法の堅牢性を向上させる枠組みを提案する。
まず、中間表現を変更せずに入力サンプルを微妙に変化させる摂動機構を導入する。
第2に、摂動サンプルの塩分マップを計算し、塩分マップを集約する新しい方法を提案する。
論文 参考訳(メタデータ) (2020-02-03T01:21:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。