論文の概要: Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation
- arxiv url: http://arxiv.org/abs/2404.14271v1
- Date: Mon, 22 Apr 2024 15:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:27:39.629766
- Title: Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation
- Title(参考訳): Pruned Layer-Wise Relevance Propagationを用いたニューラルネットワークのスパース説明
- Authors: Paulo Yanez Sarmiento, Simon Witzke, Nadja Klein, Bernhard Y. Renard,
- Abstract要約: 本稿では,レイヤワイド・レバレンス・プロパゲーションに広く用いられている説明手法の修正について述べる。
提案手法は,各レイヤの関連伝搬を解析することにより,空間性を直接的に適用する。
この修正によってノイズの低減と,ベースラインと比較して重要な特徴の集中がもたらされることが示される。
- 参考スコア(独自算出の注目度): 1.593690982728631
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability is a key component in many applications involving deep neural networks (DNNs). However, current explanation methods for DNNs commonly leave it to the human observer to distinguish relevant explanations from spurious noise. This is not feasible anymore when going from easily human-accessible data such as images to more complex data such as genome sequences. To facilitate the accessibility of DNN outputs from such complex data and to increase explainability, we present a modification of the widely used explanation method layer-wise relevance propagation. Our approach enforces sparsity directly by pruning the relevance propagation for the different layers. Thereby, we achieve sparser relevance attributions for the input features as well as for the intermediate layers. As the relevance propagation is input-specific, we aim to prune the relevance propagation rather than the underlying model architecture. This allows to prune different neurons for different inputs and hence, might be more appropriate to the local nature of explanation methods. To demonstrate the efficacy of our method, we evaluate it on two types of data, images and genomic sequences. We show that our modification indeed leads to noise reduction and concentrates relevance on the most important features compared to the baseline.
- Abstract(参考訳): 説明可能性(Explainability)は、ディープニューラルネットワーク(DNN)を含む多くのアプリケーションにおいて重要なコンポーネントである。
しかし、DNNの現在の説明法は、しばしば人間の観察者に委ねられ、関連する説明と突発的な雑音を区別する。
これは、画像のような容易にアクセス可能なデータからゲノム配列のようなより複雑なデータに移行する際には、もはや実現不可能である。
このような複雑なデータからのDNN出力のアクセシビリティを容易にし、説明可能性を高めるために、我々は広く使われている説明手法のレイヤーワイド関連伝搬を改良する。
提案手法は,各レイヤの関連伝搬を解析することにより,空間性を直接的に適用する。
これにより、入力特徴と中間層に対するスペーサー関連属性が達成される。
関連性伝播は入力固有であるため、基礎となるモデルアーキテクチャよりも関連性伝播を創出することを目指している。
これにより、異なる入力のために異なるニューロンをプルークすることができるため、説明法の局所的な性質により適している可能性がある。
本手法の有効性を示すため,画像とゲノム配列の2種類のデータを用いて評価を行った。
この修正によってノイズの低減と,ベースラインと比較して重要な特徴の集中がもたらされることが示される。
関連論文リスト
- Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - An Exploration of Conditioning Methods in Graph Neural Networks [8.532288965425805]
物理や化学などの計算タスクでは、相対的な位置や距離といったエッジ属性の使用が不可欠であることが証明された。
弱い条件付け、強い条件付け、純粋な条件付けは、それぞれの属性に因果的に依存する結合ベースの条件付け、ゲーティング、変換に関連する。
この分類は、分離可能な畳み込みから様々な形式のメッセージパッシングネットワークまで、GNNの異なるクラスについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-05-03T07:14:12Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - DisenHAN: Disentangled Heterogeneous Graph Attention Network for
Recommendation [11.120241862037911]
不均一な情報ネットワークは、リコメンデータシステムにおけるスパーシリティとコールドスタートの問題を軽減するために広く利用されている。
そこで本稿では,非交叉不均質グラフアテンションネットワークDisenHANについて,トップ$N$のレコメンデーションを提案する。
論文 参考訳(メタデータ) (2021-06-21T06:26:10Z) - Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations [7.3136594018091134]
グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-02-08T08:57:56Z) - Interpreting Deep Neural Networks with Relative Sectional Propagation by
Analyzing Comparative Gradients and Hostile Activations [37.11665902583138]
DNN(Deep Neural Networks)の出力予測を分解するための新しいアトリビューション手法であるRelative Sectional Propagation(RSP)を提案する。
我々は、敵対的因子をターゲットの属性を見つけるのを妨げる要素として定義し、活性化ニューロンの非抑制的な性質を克服するために区別可能な方法でそれを伝播させる。
本手法により,従来の帰属法と比較して,DNNのクラス識別性や活性化ニューロンの詳細な解明により,DNNの予測を分解することができる。
論文 参考訳(メタデータ) (2020-12-07T03:11:07Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - GCN for HIN via Implicit Utilization of Attention and Meta-paths [104.24467864133942]
不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
論文 参考訳(メタデータ) (2020-07-06T11:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。