論文の概要: XGNN: Towards Model-Level Explanations of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2006.02587v1
- Date: Wed, 3 Jun 2020 23:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:37:22.468804
- Title: XGNN: Towards Model-Level Explanations of Graph Neural Networks
- Title(参考訳): XGNN: グラフニューラルネットワークのモデルレベル説明を目指して
- Authors: Hao Yuan, Jiliang Tang, Xia Hu, Shuiwang Ji
- Abstract要約: グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
- 参考スコア(独自算出の注目度): 113.51160387804484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphs neural networks (GNNs) learn node features by aggregating and
combining neighbor information, which have achieved promising performance on
many graph tasks. However, GNNs are mostly treated as black-boxes and lack
human intelligible explanations. Thus, they cannot be fully trusted and used in
certain application domains if GNN models cannot be explained. In this work, we
propose a novel approach, known as XGNN, to interpret GNNs at the model-level.
Our approach can provide high-level insights and generic understanding of how
GNNs work. In particular, we propose to explain GNNs by training a graph
generator so that the generated graph patterns maximize a certain prediction of
the model.We formulate the graph generation as a reinforcement learning task,
where for each step, the graph generator predicts how to add an edge into the
current graph. The graph generator is trained via a policy gradient method
based on information from the trained GNNs. In addition, we incorporate several
graph rules to encourage the generated graphs to be valid. Experimental results
on both synthetic and real-world datasets show that our proposed methods help
understand and verify the trained GNNs. Furthermore, our experimental results
indicate that the generated graphs can provide guidance on how to improve the
trained GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、多くのグラフタスクで有望なパフォーマンスを達成した隣の情報を集約して組み合わせることで、ノードの特徴を学習する。
しかしながら、GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
したがって、GNNモデルが説明できない場合、完全に信頼され、特定のアプリケーションドメインで使用されることはできない。
本研究では,モデルレベルでのGNNを解釈するための新しい手法であるXGNNを提案する。
我々のアプローチは、GNNの動作に関する高レベルな洞察と一般的な理解を提供することができる。
特に,生成したグラフパターンがモデルの特定の予測を最大化するようにグラフ生成をトレーニングし,グラフ生成を強化学習タスクとして定式化し,各ステップにおいてグラフ生成器が現在のグラフにエッジを追加する方法を予測して,gnnを説明する。
グラフ生成器は、トレーニングされたgnnの情報に基づいてポリシー勾配方式で訓練される。
さらに、生成されたグラフを有効にするために、いくつかのグラフルールを組み込む。
合成と実世界の両方のデータセットに対する実験結果から,提案手法が学習したGNNの理解と検証に役立つことが示された。
さらに, 実験結果から, 生成したグラフは, 学習したGNNを改善するためのガイダンスを与えることができることがわかった。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Graph Structure Prompt Learning: A Novel Methodology to Improve Performance of Graph Neural Networks [13.655670509818144]
グラフネットワーク(GNN)のトレーニングを強化するための新しいグラフ構造Prompt Learning法(GPL)を提案する。
GPLはタスク非依存のグラフ構造損失を利用して、GNNが下流タスクを同時に解決しながら固有のグラフ特性を学習することを奨励している。
11の実世界のデータセットの実験では、ニューラルネットワークによってトレーニングされた後、GNNはノード分類、グラフ分類、エッジタスクにおいて、元のパフォーマンスを大幅に上回った。
論文 参考訳(メタデータ) (2024-07-16T03:59:18Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Distribution Preserving Graph Representation Learning [11.340722297341788]
グラフニューラルネットワーク(GNN)は、ノードとグラフ全体の分散表現のためのグラフをモデル化するのに有効である。
本稿では,表現型GNNモデルの一般化性を向上させるGNNフレームワークとして,分散保存GNN(DP-GNN)を提案する。
提案するDP-GNNフレームワークを,グラフ分類タスクのための複数のベンチマークデータセット上で評価する。
論文 参考訳(メタデータ) (2022-02-27T19:16:26Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。