論文の概要: Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations
- arxiv url: http://arxiv.org/abs/2012.03434v2
- Date: Sat, 12 Dec 2020 10:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:25:27.614964
- Title: Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations
- Title(参考訳): 相対的区間伝播による深部ニューラルネットワークの解釈 : 比較勾配と宿主活動の解析
- Authors: Woo-Jeoung Nam, Jaesik Choi, Seong-Whan Lee
- Abstract要約: DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
- 参考スコア(独自算出の注目度): 37.11665902583138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The clear transparency of Deep Neural Networks (DNNs) is hampered by complex
internal structures and nonlinear transformations along deep hierarchies. In
this paper, we propose a new attribution method, Relative Sectional Propagation
(RSP), for fully decomposing the output predictions with the characteristics of
class-discriminative attributions and clear objectness. We carefully revisit
some shortcomings of backpropagation-based attribution methods, which are
trade-off relations in decomposing DNNs. We define hostile factor as an element
that interferes with finding the attributions of the target and propagate it in
a distinguishable way to overcome the non-suppressed nature of activated
neurons. As a result, it is possible to assign the bi-polar relevance scores of
the target (positive) and hostile (negative) attributions while maintaining
each attribution aligned with the importance. We also present the purging
techniques to prevent the decrement of the gap between the relevance scores of
the target and hostile attributions during backward propagation by eliminating
the conflicting units to channel attribution map. Therefore, our method makes
it possible to decompose the predictions of DNNs with clearer
class-discriminativeness and detailed elucidations of activation neurons
compared to the conventional attribution methods. In a verified experimental
environment, we report the results of the assessments: (i) Pointing Game, (ii)
mIoU, and (iii) Model Sensitivity with PASCAL VOC 2007, MS COCO 2014, and
ImageNet datasets. The results demonstrate that our method outperforms existing
backward decomposition methods, including distinctive and intuitive
visualizations.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の明確な透明性は、複雑な内部構造と深い階層に沿った非線形変換によって妨げられている。
本稿では,クラス判別的帰属特性と明瞭な対象性によって出力予測を完全に分解する新しい帰属法である相対的分節伝播(rsp)を提案する。
我々は,dnnの分解におけるトレードオフ関係であるバックプロパゲーションに基づく帰属手法の欠点を慎重に検討する。
我々は、敵性因子を標的の属性の発見を妨げる要素として定義し、活性ニューロンの非抑制的な性質を克服するために、それを区別可能な方法で伝達する。
その結果、目的(正)と敵(負)の属性のバイポーラ関連スコアを、重要度に応じて各属性を維持しながら割り当てることが可能となる。
また, チャネル帰属マップの競合ユニットを排除することにより, 目標の妥当性スコアと後方伝播時の敵対的帰属との差を減少させるのを防ぐために, パーシング手法を提案する。
そこで本手法では,従来の帰属法と比較して,クラス識別性と活性化ニューロンの詳細な解明により,dnnの予測を分解することができる。
実証実験環境では, (i) ポインティングゲーム, (ii) miou, (iii) モデルの感度をpascal voc 2007, ms coco 2014, imagenetデータセットを用いて評価した。
その結果,本手法は,特徴的かつ直感的な可視化を含む既存の後方分解法よりも優れていた。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - IENE: Identifying and Extrapolating the Node Environment for Out-of-Distribution Generalization on Graphs [10.087216264788097]
ノードレベルの環境識別と外挿技術に基づくグラフのOOD一般化手法であるIENEを提案する。
モデルが2つの粒度から不変性を同時に抽出する能力を強化し、一般化が向上する。
論文 参考訳(メタデータ) (2024-06-02T14:43:56Z) - Respect the model: Fine-grained and Robust Explanation with Sharing
Ratio Decomposition [29.491712784788188]
SRD(Sharing Ratio Decomposition)と呼ばれる新しいeXplainable AI(XAI)手法を提案する。
また、アクティベーション・パタン・オンリー予測(APOP)と呼ばれる興味深い観察結果を導入し、不活性ニューロンの重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T07:20:23Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Illuminating Salient Contributions in Neuron Activation with Attribution Equilibrium [33.55397868171977]
本稿では,出力予測を微粒な属性に分解する新しい手法である属性平衡を導入する。
我々は,従来の意思決定手法を分析し,証拠の保存に関して異なる視点を提示する。
論文 参考訳(メタデータ) (2022-05-23T07:57:42Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。