論文の概要: Layer-Wise Relevance Propagation with Conservation Property for ResNet
- arxiv url: http://arxiv.org/abs/2407.09115v1
- Date: Fri, 12 Jul 2024 09:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 00:07:20.375521
- Title: Layer-Wise Relevance Propagation with Conservation Property for ResNet
- Title(参考訳): ResNetの保存性を考慮した層幅関係伝播
- Authors: Seitaro Otsuki, Tsumugi Iida, Félix Doublet, Tsubasa Hirakawa, Takayoshi Yamashita, Hironobu Fujiyoshi, Komei Sugiura,
- Abstract要約: 本稿では、ニューラルネットワーク予測を説明するためにRelevance Splittingを導入する。
提案手法は, インサーション・削除スコアなどの評価指標において, 優れた性能を実現する。
コードの詳細はhttps://5ei74r0.github.io/lrp-for-resnet.comで公開します。
- 参考スコア(独自算出の注目度): 9.584500177841125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transparent formulation of explanation methods is essential for elucidating the predictions of neural networks, which are typically black-box models. Layer-wise Relevance Propagation (LRP) is a well-established method that transparently traces the flow of a model's prediction backward through its architecture by backpropagating relevance scores. However, the conventional LRP does not fully consider the existence of skip connections, and thus its application to the widely used ResNet architecture has not been thoroughly explored. In this study, we extend LRP to ResNet models by introducing Relevance Splitting at points where the output from a skip connection converges with that from a residual block. Our formulation guarantees the conservation property throughout the process, thereby preserving the integrity of the generated explanations. To evaluate the effectiveness of our approach, we conduct experiments on ImageNet and the Caltech-UCSD Birds-200-2011 dataset. Our method achieves superior performance to that of baseline methods on standard evaluation metrics such as the Insertion-Deletion score while maintaining its conservation property. We will release our code for further research at https://5ei74r0.github.io/lrp-for-resnet.page/
- Abstract(参考訳): 説明法の透明な定式化は、一般的にブラックボックスモデルであるニューラルネットワークの予測の解明に不可欠である。
レイヤワイド・レバレンス・プロパゲーション(Layer-wise Relevance Propagation, LRP)は、リバレンス・スコアをバックプロパゲートすることで、モデルがアーキテクチャを通して逆向きに予測する流れを透過的に追跡する、よく確立された手法である。
しかし、従来のLRPはスキップ接続の存在を十分に考慮していないため、広く使われているResNetアーキテクチャへの応用は十分に検討されていない。
本研究では、スキップ接続からの出力が残留ブロックからの出力と収束する点において、Relevance Splittingを導入することで、LRPをResNetモデルに拡張する。
我々の定式化はプロセス全体の保存性を保証し、生成した説明の完全性を維持する。
提案手法の有効性を評価するため,ImageNetとCaltech-UCSD Birds-200-2011データセットを用いて実験を行った。
本手法は, 保存性を維持しつつ, インサーション・削除スコアなどの標準評価指標の基準法よりも優れた性能を実現する。
詳細はhttps://5ei74r0.github.io/lrp-for-resnet.page/で公開します。
関連論文リスト
- Strategically Conservative Q-Learning [89.17906766703763]
オフライン強化学習(RL)は、RLの実用性を拡張するための魅力的なパラダイムである。
オフラインRLの最大の難しさは、オフ・オブ・ディストリビューション(OOD)アクションに遭遇する際の近似誤差の影響を緩和することである。
本稿では, 予測が容易かつ困難であるOODデータを識別する, SCQ(Strategical conservative Q-Learning) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-06T22:09:46Z) - Inferring Dynamic Networks from Marginals with Iterative Proportional Fitting [57.487936697747024]
実世界のデータ制約から生じる一般的なネットワーク推論問題は、その時間集約された隣接行列から動的ネットワークを推論する方法である。
本稿では,ネットワーク構造に対する最小限の変更の下でIPFの収束を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-28T20:24:56Z) - Block Pruning for Enhanced Efficiency in Convolutional Neural Networks [7.110116320545541]
本稿では,エッジコンピューティング環境におけるディープニューラルネットワークにおけるブロックプルーニングを対象とする,ネットワークプルーニングに対する新しいアプローチを提案する。
提案手法は,プロキシメトリクスを利用する従来の手法とは異なっており,直接ブロック除去手法を用いて分類精度への影響を評価する。
論文 参考訳(メタデータ) (2023-12-28T08:54:48Z) - On The Energy Statistics of Feature Maps in Pruning of Neural Networks
with Skip-Connections [36.39223566275535]
本研究では,Deep Neural Networks (DNN) をスキップ接続で圧縮するための新しい構造化プルーニングフレームワークを提案する。
隠れた層のエネルギー統計によって定義される依存度は、特徴写像とネットワークの出力の間の情報のモデルのない尺度として機能する。
論文 参考訳(メタデータ) (2022-01-26T22:20:51Z) - Clustering-Based Interpretation of Deep ReLU Network [17.234442722611803]
我々はReLU関数の非線形挙動が自然なクラスタリングを引き起こすことを認識している。
本稿では,完全連結フィードフォワードReLUニューラルネットワークの解釈可能性を高める手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T09:24:11Z) - Densely connected neural networks for nonlinear regression [8.830042935753303]
本稿では,畳み込み層とプール層を完全連結層に置き換えた新しいDenseNet回帰モデルを提案する。
結果は最適な深さ(19)を与え、限られた入力次元(200以下)を推奨する。
最終的に、DenseNet回帰は相対湿度を予測するために適用され、その結果は観測と高い相関(0.91)を示す。
論文 参考訳(メタデータ) (2021-07-29T03:41:56Z) - COMBO: Conservative Offline Model-Based Policy Optimization [120.55713363569845]
ディープニューラルネットワークのような複雑なモデルによる不確実性推定は困難であり、信頼性が低い。
我々は,サポート外状態動作の値関数を正規化するモデルベースオフラインRLアルゴリズムCOMBOを開発した。
従来のオフラインモデルフリーメソッドやモデルベースメソッドと比べて、comboは一貫してパフォーマンスが良いことが分かりました。
論文 参考訳(メタデータ) (2021-02-16T18:50:32Z) - Kernel-Based Smoothness Analysis of Residual Networks [85.20737467304994]
ResNets(Residual Networks)は、これらの強力なモダンアーキテクチャの中でも際立っている。
本稿では,2つのモデル,すなわちResNetsが勾配よりもスムーズな傾向を示す。
論文 参考訳(メタデータ) (2020-09-21T16:32:04Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - PlaNet of the Bayesians: Reconsidering and Improving Deep Planning
Network by Incorporating Bayesian Inference [12.654871396334668]
我々は、ベイジアン(PlaNet-Bayes)のPlaNetとも呼ばれるDeep Planning Network(PlaNet)の拡張を提案する。
提案された拡張は、ベイズ推定に基づいてPlaNetを不確実性に認識することである。
連続制御タスクの性能を実験的に比較し,PlaNetと比較して連続的に性能を向上させることができると結論付けた。
論文 参考訳(メタデータ) (2020-03-01T00:46:36Z) - Benchmarking Network Embedding Models for Link Prediction: Are We Making
Progress? [84.43405961569256]
我々はリンク予測のためのネットワーク埋め込み手法の最先端について光を当てた。
私たちは、一貫した評価パイプラインを使用して、過去数年間でわずかに進歩しただけであることを示しています。
我々は、標準化された評価ツールがこの状況を修復し、この分野の将来的な進歩を促進することができると論じている。
論文 参考訳(メタデータ) (2020-02-25T16:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。