論文の概要: Explaining Dynamic Graph Neural Networks via Relevance Back-propagation
- arxiv url: http://arxiv.org/abs/2207.11175v1
- Date: Fri, 22 Jul 2022 16:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 13:33:22.625412
- Title: Explaining Dynamic Graph Neural Networks via Relevance Back-propagation
- Title(参考訳): 関連バックプロパゲーションによる動的グラフニューラルネットワークの解説
- Authors: Jiaxuan Xie, Yezi Liu, Yanning Shen
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて、豊富な情報を捕捉する際、顕著な効果を示した。
GNNのブラックボックスの性質は、モデルの理解と信頼を妨げるため、アプリケーションに困難をもたらす。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
- 参考スコア(独自算出の注目度): 8.035521056416242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have shown remarkable effectiveness in capturing
abundant information in graph-structured data. However, the black-box nature of
GNNs hinders users from understanding and trusting the models, thus leading to
difficulties in their applications. While recent years witness the prosperity
of the studies on explaining GNNs, most of them focus on static graphs, leaving
the explanation of dynamic GNNs nearly unexplored. It is challenging to explain
dynamic GNNs, due to their unique characteristic of time-varying graph
structures. Directly using existing models designed for static graphs on
dynamic graphs is not feasible because they ignore temporal dependencies among
the snapshots. In this work, we propose DGExplainer to provide reliable
explanation on dynamic GNNs. DGExplainer redistributes the output activation
score of a dynamic GNN to the relevances of the neurons of its previous layer,
which iterates until the relevance scores of the input neuron are obtained. We
conduct quantitative and qualitative experiments on real-world datasets to
demonstrate the effectiveness of the proposed framework for identifying
important nodes for link prediction and node regression for dynamic GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、グラフ構造化データの豊富な情報をキャプチャする上で、顕著な効果を示している。
しかし、GNNのブラックボックスの性質は、ユーザーがモデルの理解と信頼を妨げ、アプリケーションに困難をもたらす。
近年ではGNNの説明に関する研究が盛んになっているが、その多くは静的グラフに焦点を当てており、動的GNNの説明はほとんど探索されていない。
時間変化グラフ構造に特有の特徴があるため、動的GNNを説明するのは難しい。
動的グラフ上の静的グラフ用に設計された既存のモデルを直接使用することは、スナップショット間の一時的な依存関係を無視するため、実現不可能である。
本稿ではDGExplainerを提案し,動的GNNの信頼性について説明する。
DGExplainerは、動的GNNの出力活性化スコアを前層のニューロンの関連度に再分割し、入力ニューロンの関連スコアが取得されるまで反復する。
実世界のデータセット上で定量的かつ定性的な実験を行い、動的GNNにおけるリンク予測とノード回帰のための重要なノードを特定するためのフレームワークの有効性を実証する。
関連論文リスト
- A survey of dynamic graph neural networks [26.162035361191805]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから効果的にマイニングし学習するための強力なツールとして登場した。
本稿では,基本的な概念,鍵となる技術,そして最先端の動的GNNモデルについて概観する。
論文 参考訳(メタデータ) (2024-04-28T15:07:48Z) - DyExplainer: Explainable Dynamic Graph Neural Networks [37.16783248212211]
我々は,動的グラフニューラルネットワーク(GNN)を高速に説明するための新しいアプローチであるDyExplainerを提案する。
DyExplainerは動的なGNNバックボーンをトレーニングし、各スナップショットでグラフの表現を抽出する。
また,事前指導型正規化を実現するために,コントラスト学習技術によるアプローチも強化する。
論文 参考訳(メタデータ) (2023-10-25T05:26:33Z) - From Continuous Dynamics to Graph Neural Networks: Neural Diffusion and
Beyond [32.290102818872526]
グラフニューラルネットワーク(GNN)は、データモデリングにおいて大きな可能性を示しており、様々な分野で広く応用されている。
我々は,GNNの継続的な視点を活用した,最初の体系的かつ包括的な研究のレビューを行う。
論文 参考訳(メタデータ) (2023-10-16T06:57:24Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Dynamic Causal Explanation Based Diffusion-Variational Graph Neural
Network for Spatio-temporal Forecasting [60.03169701753824]
時間予測のための動的拡散型グラフニューラルネットワーク(DVGNN)を提案する。
提案したDVGNNモデルは最先端のアプローチよりも優れ,Root Mean Squared Errorの結果が優れている。
論文 参考訳(メタデータ) (2023-05-16T11:38:19Z) - Graph Sequential Neural ODE Process for Link Prediction on Dynamic and
Sparse Graphs [33.294977897987685]
動的グラフ上のリンク予測は、グラフマイニングにおいて重要な課題である。
動的グラフニューラルネットワーク(DGNN)に基づく既存のアプローチは通常、かなりの量の履歴データを必要とする。
グラフシークエンシャルニューラルネットワークプロセス(GSNOP)と呼ばれる,ニューラルプロセスに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-15T23:21:02Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。