論文の概要: Efficient GNN Explanation via Learning Removal-based Attribution
- arxiv url: http://arxiv.org/abs/2306.05760v1
- Date: Fri, 9 Jun 2023 08:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 14:08:44.955776
- Title: Efficient GNN Explanation via Learning Removal-based Attribution
- Title(参考訳): 学習除去に基づく属性による効率的なGNN説明
- Authors: Yao Rong, Guanchu Wang, Qizhang Feng, Ninghao Liu, Zirui Liu,
Enkelejda Kasneci, Xia Hu
- Abstract要約: 本稿では,LARA (LeArn removal-based Attribution) というGNN説明の枠組みを提案し,この問題に対処する。
LARAの解説者は、高い忠実度で説明を提供することができる除去に基づく属性を生成することを学ぶ。
特に、LARAは3.5倍高速で、大きなデータセットogbn-arxivの最先端の手法よりも忠実である。
- 参考スコア(独自算出の注目度): 56.18049062940675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Graph Neural Networks (GNNs) have been widely used in real-world
applications, model explanations are required not only by users but also by
legal regulations. However, simultaneously achieving high fidelity and low
computational costs in generating explanations has been a challenge for current
methods. In this work, we propose a framework of GNN explanation named LeArn
Removal-based Attribution (LARA) to address this problem. Specifically, we
introduce removal-based attribution and demonstrate its substantiated link to
interpretability fidelity theoretically and experimentally. The explainer in
LARA learns to generate removal-based attribution which enables providing
explanations with high fidelity. A strategy of subgraph sampling is designed in
LARA to improve the scalability of the training process. In the deployment,
LARA can efficiently generate the explanation through a feed-forward pass. We
benchmark our approach with other state-of-the-art GNN explanation methods on
six datasets. Results highlight the effectiveness of our framework regarding
both efficiency and fidelity. In particular, LARA is 3.5 times faster and
achieves higher fidelity than the state-of-the-art method on the large dataset
ogbn-arxiv (more than 160K nodes and 1M edges), showing its great potential in
real-world applications. Our source code is available at
https://anonymous.4open.science/r/LARA-10D8/README.md.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)が現実世界のアプリケーションで広く使われているため、モデル説明はユーザだけでなく、法的規制によっても必要である。
しかし,現在の手法では,高い忠実性と低い計算コストを同時に達成することが課題となっている。
本稿では,LARA (LeArn removal-based Attribution) というGNN説明の枠組みを提案し,この問題に対処する。
具体的には, 除去に基づく属性を導入し, 理論的, 実験的に解釈可能性の忠実性との関係を実証する。
LARAの解説者は、高い忠実度で説明ができる除去に基づく属性を生成することを学ぶ。
トレーニングプロセスのスケーラビリティを向上させるため, サブグラフサンプリングの戦略をLARAで設計する。
デプロイメントでは、LARAはフィードフォワードパスを通じて、効率的に説明を生成することができる。
我々は、このアプローチを6つのデータセット上の他の最先端gnn説明手法でベンチマークする。
結果は、効率性と忠実性の両方に関して、我々のフレームワークの有効性を強調します。
特に、LARAは3.5倍高速で、大規模なデータセットogbn-arxiv(160Kノードと1Mエッジ)の最先端メソッドよりも高い忠実性を実現しており、現実世界のアプリケーションにおいてその大きな可能性を示している。
ソースコードはhttps://anonymous.4open.science/r/LARA-10D8/README.mdで公開されています。
関連論文リスト
- On the Feasibility of Fidelity$^-$ for Graph Pruning [8.237329883558857]
忠実度は入力グラフの重要でない部分を取り除いた後に出力差を測定する。
このことは自然の疑問を提起する:「忠実さはグラフ解析のためのグローバルな(ソフトな)マスクを誘発するだろうか?
本研究では,局所的な説明からグローバルエッジマスクを構築するための効果的なフレームワークであるFidelity$-$-inspired Pruning (FiP)を提案する。
論文 参考訳(メタデータ) (2024-06-17T13:05:00Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Towards Training GNNs using Explanation Directed Message Passing [4.014524824655107]
我々は、GNNのための新しい説明指向ニューラルメッセージパッシングフレームワークEXPASS(EXplainable message PASSing)を紹介する。
ディリクレエネルギーの層損失を緩やかにすることで,EXPASSはGNNの過度なスムース化問題を緩和することを示した。
実験の結果,EXPASSを用いて学習したグラフ埋め込みにより予測性能が向上し,GNNの過度な問題を軽減することがわかった。
論文 参考訳(メタデータ) (2022-11-30T04:31:26Z) - Towards Formal Approximated Minimal Explanations of Neural Networks [0.0]
ディープニューラルネットワーク(DNN)は現在、多くのドメインで使用されている。
DNNは「ブラックボックス」であり、人間には解釈できない。
そこで本研究では,最小限の説明を求めるための効率的な検証手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:06:37Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - A Meta-Learning Approach for Training Explainable Graph Neural Networks [10.11960004698409]
本稿では,GNNの学習時間における説明可能性向上のためのメタラーニングフレームワークを提案する。
我々のフレームワークは、例えばノード分類などの元のタスクを解決するためにモデルを共同で訓練し、下流アルゴリズムで容易に処理可能な出力を提供する。
我々のモデルに依存しないアプローチは、異なるGNNアーキテクチャで生成された説明を改善し、このプロセスを駆動するためにインスタンスベースの説明器を使用することができます。
論文 参考訳(メタデータ) (2021-09-20T11:09:10Z) - Jointly Learnable Data Augmentations for Self-Supervised GNNs [0.311537581064266]
本稿では,グラフ表現学習のための自己教師型学習手法であるGraphSurgeonを提案する。
学習可能なデータ拡張の柔軟性を活用し、埋め込み空間で強化する新しい戦略を導入する。
その結果,GraphSurgeonは6つのSOTA半教師付きベースラインに匹敵し,ノード分類タスクにおける5つのSOTA自己教師付きベースラインに匹敵することがわかった。
論文 参考訳(メタデータ) (2021-08-23T21:33:12Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。