論文の概要: DAG Matters! GFlowNets Enhanced Explainer For Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2303.02448v1
- Date: Sat, 4 Mar 2023 16:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 19:39:28.002830
- Title: DAG Matters! GFlowNets Enhanced Explainer For Graph Neural Networks
- Title(参考訳): DAG Matters!
グラフニューラルネットワークのためのgflownets拡張説明器
- Authors: Wenqian Li, Yinchuan Li, Zhigang Li, Jianye Hao, Yan Pang
- Abstract要約: 我々はGFlowNetsベースのGNN Explainer(GFlowExplainer)という生成構造を提案する。
我々のGFlowExplainerは、サブグラフの確率がその報酬に比例するサブグラフの分布を生成するポリシーを学習することを目的としています。
我々は合成データと実データの両方について広範な実験を行い、質的および定量的な結果はGFlowExplainerの優位性を示している。
- 参考スコア(独自算出の注目度): 30.19635147123557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncovering rationales behind predictions of graph neural networks (GNNs) has
received increasing attention over the years. Existing literature mainly focus
on selecting a subgraph, through combinatorial optimization, to provide
faithful explanations. However, the exponential size of candidate subgraphs
limits the applicability of state-of-the-art methods to large-scale GNNs. We
enhance on this through a different approach: by proposing a generative
structure -- GFlowNets-based GNN Explainer (GFlowExplainer), we turn the
optimization problem into a step-by-step generative problem. Our GFlowExplainer
aims to learn a policy that generates a distribution of subgraphs for which the
probability of a subgraph is proportional to its' reward. The proposed approach
eliminates the influence of node sequence and thus does not need any
pre-training strategies. We also propose a new cut vertex matrix to efficiently
explore parent states for GFlowNets structure, thus making our approach
applicable in a large-scale setting. We conduct extensive experiments on both
synthetic and real datasets, and both qualitative and quantitative results show
the superiority of our GFlowExplainer.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)の予測の背後にある根拠を明らかにすることは、長年にわたって注目を集めてきた。
現存する文献は主に、組合せ最適化を通じて、忠実な説明を提供するサブグラフの選択に焦点を当てている。
しかし、候補部分グラフの指数的サイズは、大規模GNNへの最先端手法の適用性を制限している。
GFlowNetsベースのGNN Explainer(GFlowExplainer)を提案することによって、最適化問題をステップバイステップの生成問題に変換する。
我々のGFlowExplainerは、サブグラフの確率がその報酬に比例するサブグラフの分布を生成するポリシーを学習することを目的としています。
提案手法は,ノードシーケンスの影響を排除し,事前学習戦略を必要としない。
また,GFlowNets構造に対する親状態の探索を効率的に行うために,カット頂点行列を提案する。
我々は合成データと実データの両方について広範な実験を行い、質的および定量的な結果はGFlowExplainerの優位性を示している。
関連論文リスト
- A GAN Approach for Node Embedding in Heterogeneous Graphs Using Subgraph
Sampling [35.94125831564648]
我々の研究は、グラフニューラルネットワーク(GNN)を用いた異種グラフのクラス不均衡問題に対処する。
本稿では,GAN(Generative Adversarial Networks)とGNN(Greative Adversarial Networks)の長所を結合し,データセットを効果的にバランスさせる合成ノードとエッジを作成する手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T16:52:20Z) - Learning How to Propagate Messages in Graph Neural Networks [55.2083896686782]
本稿では,グラフニューラルネットワーク(GNN)におけるメッセージ伝搬戦略の学習問題について検討する。
本稿では,GNNパラメータの最大類似度推定を支援するために,最適伝搬ステップを潜時変数として導入する。
提案フレームワークは,GNNにおけるメッセージのパーソナライズおよび解釈可能な伝達戦略を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-10-01T15:09:59Z) - Improving Expressivity of GNNs with Subgraph-specific Factor Embedded
Normalization [30.86182962089487]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱うための学習アーキテクチャの強力なカテゴリとして登場した。
我々は SUbgraph-sPEcific FactoR Embedded Normalization (SuperNorm) と呼ばれる専用プラグアンドプレイ正規化方式を提案する。
論文 参考訳(メタデータ) (2023-05-31T14:37:31Z) - Deep Graph Neural Networks via Flexible Subgraph Aggregation [50.034313206471694]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、近隣情報を集約することでノードの表現を学ぶ。
本稿では,サブグラフアグリゲーションの観点から,GNNの表現力を評価する。
サブグラフアグリゲーションの異なるホップをより柔軟に活用できるサンプリングベースノードレベル残余モジュール(SNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - GFlowCausal: Generative Flow Networks for Causal Discovery [27.51595081346858]
本稿では,GFlowCausalと呼ばれる観測データからDAG(Directed Acyclic Graph)を学習するための新しい手法を提案する。
GFlowCausalは、事前定義された報酬に比例した確率を持つシーケンシャルアクションによって、ハイリワードDAGを生成するための最良のポリシーを学ぶことを目的としている。
合成データセットと実データセットの両方について広範な実験を行い、提案手法が優れていることを示すとともに、大規模環境での良好な性能を示す。
論文 参考訳(メタデータ) (2022-10-15T04:07:39Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。