論文の概要: TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency
- arxiv url: http://arxiv.org/abs/2110.05182v1
- Date: Mon, 11 Oct 2021 12:00:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 16:08:54.690794
- Title: TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency
- Title(参考訳): TSG: CNNビジュアルサリエンシの探索のためのターゲット選択型グラディエントバックプロップ
- Authors: Lin Cheng, Pengfei Fang, Yanjie Liang, Liao Zhang, Chunhua Shen, Hanzi
Wang
- Abstract要約: 我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
- 参考スコア(独自算出の注目度): 72.9106103283475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The explanation for deep neural networks has drawn extensive attention in the
deep learning community over the past few years. In this work, we study the
visual saliency, a.k.a. visual explanation, to interpret convolutional neural
networks. Compared to iteration based saliency methods, single backward pass
based saliency methods benefit from faster speed and are widely used in
downstream visual tasks. Thus our work focuses on single backward pass
approaches. However, existing methods in this category struggle to successfully
produce fine-grained saliency maps concentrating on specific target classes.
That said, producing faithful saliency maps satisfying both
target-selectiveness and fine-grainedness using a single backward pass is a
challenging problem in the field. To mitigate this problem, we revisit the
gradient flow inside the network, and find that the entangled semantics and
original weights may disturb the propagation of target-relevant saliency.
Inspired by those observations, we propose a novel visual saliency framework,
termed Target-Selective Gradient (TSG) backprop, which leverages rectification
operations to effectively emphasize target classes and further efficiently
propagate the saliency to the input space, thereby generating target-selective
and fine-grained saliency maps. The proposed TSG consists of two components,
namely, TSG-Conv and TSG-FC, which rectify the gradients for convolutional
layers and fully-connected layers, respectively. Thorough qualitative and
quantitative experiments on ImageNet and Pascal VOC show that the proposed
framework achieves more accurate and reliable results than other competitive
methods.
- Abstract(参考訳): ディープニューラルネットワークの説明は、過去数年間、ディープラーニングコミュニティに大きな注目を集めてきた。
本研究では、畳み込みニューラルネットワークを解釈するための視覚的サリエンシ、すなわち視覚的説明について研究する。
イテレーションベースのサリエンシーメソッドと比較すると、単一の後方パスベースのサリエンシーメソッドは高速なスピードの恩恵を受け、下流のビジュアルタスクで広く使われている。
このように、我々の仕事は単一の後方通過アプローチに焦点を当てています。
しかし,本カテゴリーの既存の手法では,特定の対象クラスに焦点を絞った細粒度サリエンシマップの製作に苦慮している。
とはいえ、単一の後方パスを使用して目標選択性と細粒度の両方を満たす忠実な正当性マップを作成することは、この分野では難しい問題である。
この問題を軽減するために,ネットワーク内の勾配流れを再検討し,絡み合った意味論と元の重み付けが,ターゲット関係のサルジェンシーの伝播を阻害する可能性を見出した。
そこで本稿では,これらの観察に触発されて,目標クラスを効果的に強調し,さらに入力空間へのサリエンスを効率的に伝達し,目標選択型および細粒度サリエンシーマップを生成するために,補正操作を利用した新しい視覚的サリエンシーフレームワークtsgを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
ImageNet と Pascal VOC の詳細な定性的および定量的実験により,提案手法が他の競合手法よりも正確で信頼性の高い結果が得られることを示した。
関連論文リスト
- Visual Prompt Tuning in Null Space for Continual Learning [51.96411454304625]
既存のプロンプトチューニング手法は、継続学習(CL)における印象的な性能を示す。
本稿では,従来のタスクの特徴に代表される部分空間に直交する方向のプロンプトを調整し,各タスクを学習することを目的とする。
実際には、即時勾配予測を実装するために、実効的なヌル空間に基づく近似解が提案されている。
論文 参考訳(メタデータ) (2024-06-09T05:57:40Z) - Rethinking Class Activation Maps for Segmentation: Revealing Semantic
Information in Shallow Layers by Reducing Noise [2.462953128215088]
クラス活性化マップの性能に対する大きな制限は、畳み込みニューラルネットワークの最後の層にある特徴マップの小さな空間分解能である。
本稿では, 雑音を正の勾配で除去し, ノイズを除去する簡易な勾配法を提案する。
提案手法は,他のCAM関連手法にも容易に適用可能であり,高品質なクラスアクティベーションマップの取得が容易である。
論文 参考訳(メタデータ) (2023-08-04T03:04:09Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Learning with Local Gradients at the Edge [14.94491070863641]
我々は、Target Projection Gradient Descent (tpSGD) と呼ばれる新しいバックプロパゲーションフリー最適化アルゴリズムを提案する。
tpSGDは、任意の損失関数を扱うために、直接ランダムターゲット射影を一般化する。
我々は、深層ニューラルネットワークのトレーニングにおけるtpSGDの性能を評価し、マルチ層RNNへのアプローチを拡張した。
論文 参考訳(メタデータ) (2022-08-17T19:51:06Z) - SESS: Saliency Enhancing with Scaling and Sliding [42.188013259368766]
説明可能なAIや弱い教師付きオブジェクト検出とセグメンテーションを含む、いくつかの機械学習応用領域において、高品質な唾液マップが不可欠である。
SESS (Saliency Enhancing with Scaling and Sliding) と呼ばれる新しいサリエンシ向上手法を提案する。
これは既存のサリエンシマップ生成方法へのメソッドおよびモデル拡張である。
論文 参考訳(メタデータ) (2022-07-05T02:16:23Z) - Activated Gradients for Deep Neural Networks [9.476778519758426]
ディープニューラルネットワークは、条件の悪い問題のために、パフォーマンスの低下やトレーニングの失敗に悩まされることが多い。
本稿では,勾配に勾配活性化関数(GAF)を作用させることにより,これらの課題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-09T06:00:55Z) - Proxy Convexity: A Unified Framework for the Analysis of Neural Networks
Trained by Gradient Descent [95.94432031144716]
学習ネットワークの分析のための統合された非最適化フレームワークを提案する。
既存の保証は勾配降下により統一することができることを示す。
論文 参考訳(メタデータ) (2021-06-25T17:45:00Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Keep the Gradients Flowing: Using Gradient Flow to Study Sparse Network
Optimization [16.85167651136133]
スパースネットワークのトレーニングについて、より広い視点で考察し、スパースモデルにおける正規化、最適化、アーキテクチャ選択の役割について考察する。
アーキテクチャ設計とトレーニング体制の側面を再考することにより,スパースネットワーク内の勾配流を改善することができることを示す。
論文 参考訳(メタデータ) (2021-02-02T18:40:26Z) - Attentive CutMix: An Enhanced Data Augmentation Approach for Deep
Learning Based Image Classification [58.20132466198622]
そこで我々は,CutMixに基づく自然拡張拡張戦略であるAttentive CutMixを提案する。
各トレーニングイテレーションにおいて、特徴抽出器から中間注意マップに基づいて最も記述性の高い領域を選択する。
提案手法は単純かつ有効であり,実装が容易であり,ベースラインを大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-03-29T15:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。