論文の概要: Understanding CNNs from excitations
- arxiv url: http://arxiv.org/abs/2205.00932v1
- Date: Mon, 2 May 2022 14:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:56:39.920424
- Title: Understanding CNNs from excitations
- Title(参考訳): 励起からCNNを理解する
- Authors: Zijian Ying, Qianmu Li, Zhichao Lian
- Abstract要約: 本稿では,ニューラルネットワークに対する新しい認知的アプローチであるPANEを提案する。
PANE の指導のもと,CNN のようなモデルに対して IOM という新しいサリエンシマップ表現法が提案されている。
- 参考スコア(独自算出の注目度): 9.34397889688616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For instance-level explanation, in order to reveal the relations between
high-level semantics and detailed spatial information, this paper proposes a
novel cognitive approach to neural networks, which named PANE. Under the
guidance of PANE, a novel saliency map representation method, named IOM, is
proposed for CNN-like models. We make the comparison with eight
state-of-the-art saliency map representation methods. The experimental results
show that IOM far outperforms baselines. The work of this paper may bring a new
perspective to understand deep neural networks.
- Abstract(参考訳): 本稿では,高レベルのセマンティクスと詳細な空間情報との関係を明らかにするために,PANEと呼ばれるニューラルネットワークに対する新しい認知的アプローチを提案する。
PANE の指導のもと,CNN のようなモデルに対して IOM という新しい唾液マップ表現法を提案する。
我々は,8つの最先端のサリエンシーマップ表現法との比較を行った。
実験の結果,IOMはベースラインよりもはるかに優れていた。
この論文は、ディープニューラルネットワークを理解するための新しい視点をもたらすかもしれない。
関連論文リスト
- A Learning Paradigm for Interpretable Gradients [9.074325843851726]
本稿では,解釈可能性向上のための新たな学習手法を提案する。
得られた勾配は定性的にノイズが少なく、異なるネットワークの解釈可能性特性を定量的に改善する。
論文 参考訳(メタデータ) (2024-04-23T13:32:29Z) - Improving Adversarial Transferability via Intermediate-level
Perturbation Decay [79.07074710460012]
我々は,一段階の最適化で敵の例を再現する新しい中間レベル手法を開発した。
実験結果から, 種々の犠牲者モデルに対する攻撃において, 最先端技術よりも大きな差が認められた。
論文 参考訳(メタデータ) (2023-04-26T09:49:55Z) - Abs-CAM: A Gradient Optimization Interpretable Approach for Explanation
of Convolutional Neural Networks [7.71412567705588]
クラスアクティベーションマッピングに基づく手法は、コンピュータビジョンタスクにおけるモデルの内部決定を解釈するために広く用いられている。
バックプロパゲーションから導出される勾配を最適化する絶対値クラス活性化マッピング(Abs-CAM)法を提案する。
Abs-CAMのフレームワークは、2つのフェーズに分けられる。
論文 参考訳(メタデータ) (2022-07-08T02:06:46Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Rethinking Positive Aggregation and Propagation of Gradients in
Gradient-based Saliency Methods [47.999621481852266]
Saliencyメソッドは、ニューラルネットワークの予測を、その予測に入力要素の重要性を示すことによって解釈する。
本研究では,勾配情報,すなわち正の凝集と正の伝播を扱うための2つの手法が,これらの手法を破っていることを実証的に示す。
論文 参考訳(メタデータ) (2020-12-01T09:38:54Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z) - Disentangling Adaptive Gradient Methods from Learning Rates [65.0397050979662]
適応的勾配法が学習率のスケジュールとどのように相互作用するかを、より深く検討する。
我々は、更新の規模をその方向から切り離す"グラフティング"実験を導入する。
適応勾配法の一般化に関する経験的および理論的考察を示す。
論文 参考訳(メタデータ) (2020-02-26T21:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。