論文の概要: Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation
- arxiv url: http://arxiv.org/abs/2404.14271v1
- Date: Mon, 22 Apr 2024 15:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:27:39.629766
- Title: Sparse Explanations of Neural Networks Using Pruned Layer-Wise Relevance Propagation
- Title(参考訳): Pruned Layer-Wise Relevance Propagationを用いたニューラルネットワークのスパース説明
- Authors: Paulo Yanez Sarmiento, Simon Witzke, Nadja Klein, Bernhard Y. Renard,
- Abstract要約: 本稿では,レイヤワイド・レバレンス・プロパゲーションに広く用いられている説明手法の修正について述べる。
提案手法は,各レイヤの関連伝搬を解析することにより,空間性を直接的に適用する。
この修正によってノイズの低減と,ベースラインと比較して重要な特徴の集中がもたらされることが示される。
- 参考スコア(独自算出の注目度): 1.593690982728631
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability is a key component in many applications involving deep neural networks (DNNs). However, current explanation methods for DNNs commonly leave it to the human observer to distinguish relevant explanations from spurious noise. This is not feasible anymore when going from easily human-accessible data such as images to more complex data such as genome sequences. To facilitate the accessibility of DNN outputs from such complex data and to increase explainability, we present a modification of the widely used explanation method layer-wise relevance propagation. Our approach enforces sparsity directly by pruning the relevance propagation for the different layers. Thereby, we achieve sparser relevance attributions for the input features as well as for the intermediate layers. As the relevance propagation is input-specific, we aim to prune the relevance propagation rather than the underlying model architecture. This allows to prune different neurons for different inputs and hence, might be more appropriate to the local nature of explanation methods. To demonstrate the efficacy of our method, we evaluate it on two types of data, images and genomic sequences. We show that our modification indeed leads to noise reduction and concentrates relevance on the most important features compared to the baseline.
- Abstract(参考訳): 説明可能性(Explainability)は、ディープニューラルネットワーク(DNN)を含む多くのアプリケーションにおいて重要なコンポーネントである。
しかし、DNNの現在の説明法は、しばしば人間の観察者に委ねられ、関連する説明と突発的な雑音を区別する。
これは、画像のような容易にアクセス可能なデータからゲノム配列のようなより複雑なデータに移行する際には、もはや実現不可能である。
このような複雑なデータからのDNN出力のアクセシビリティを容易にし、説明可能性を高めるために、我々は広く使われている説明手法のレイヤーワイド関連伝搬を改良する。
提案手法は,各レイヤの関連伝搬を解析することにより,空間性を直接的に適用する。
これにより、入力特徴と中間層に対するスペーサー関連属性が達成される。
関連性伝播は入力固有であるため、基礎となるモデルアーキテクチャよりも関連性伝播を創出することを目指している。
これにより、異なる入力のために異なるニューロンをプルークすることができるため、説明法の局所的な性質により適している可能性がある。
本手法の有効性を示すため,画像とゲノム配列の2種類のデータを用いて評価を行った。
この修正によってノイズの低減と,ベースラインと比較して重要な特徴の集中がもたらされることが示される。
関連論文リスト
- Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Noise-Resilient Unsupervised Graph Representation Learning via Multi-Hop Feature Quality Estimation [53.91958614666386]
グラフニューラルネットワーク(GNN)に基づく教師なしグラフ表現学習(UGRL)
マルチホップ特徴量推定(MQE)に基づく新しいUGRL法を提案する。
論文 参考訳(メタデータ) (2024-07-29T12:24:28Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - DisenHAN: Disentangled Heterogeneous Graph Attention Network for
Recommendation [11.120241862037911]
不均一な情報ネットワークは、リコメンデータシステムにおけるスパーシリティとコールドスタートの問題を軽減するために広く利用されている。
そこで本稿では,非交叉不均質グラフアテンションネットワークDisenHANについて,トップ$N$のレコメンデーションを提案する。
論文 参考訳(メタデータ) (2021-06-21T06:26:10Z) - Enhance Information Propagation for Graph Neural Network by
Heterogeneous Aggregations [7.3136594018091134]
グラフニューラルネットワークは、ディープラーニングの成功の継続として出現している。
ヘテロジニアスアグリゲーションを組み合わせることで,GNN層間の情報伝達を促進することを提案する。
我々は,多くのグラフ分類ベンチマークにおいて,HAG-Netの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2021-02-08T08:57:56Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - GCN for HIN via Implicit Utilization of Attention and Meta-paths [104.24467864133942]
不均一情報ネットワーク(HIN)埋め込みは、HINの構造と意味情報を分散表現にマッピングすることを目的としている。
本稿では,注意とメタパスを暗黙的に活用するニューラルネットワーク手法を提案する。
まず、各層で識別集約を行う多層グラフ畳み込みネットワーク(GCN)フレームワークを用いる。
次に,アグリゲーションから分離可能な新しい伝搬操作を導入することにより,効果的な緩和と改善を行う。
論文 参考訳(メタデータ) (2020-07-06T11:09:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。