論文の概要: From Binary to Continuous: Stochastic Re-Weighting for Robust Graph Explanation
- arxiv url: http://arxiv.org/abs/2508.01925v1
- Date: Sun, 03 Aug 2025 21:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.120892
- Title: From Binary to Continuous: Stochastic Re-Weighting for Robust Graph Explanation
- Title(参考訳): バイナリから連続へ:ロバストグラフ記述のための確率的再重み付け
- Authors: Zhuomin Chen, Jingchao Ni, Hojat Allah Salehi, Xu Zheng, Dongsheng Luo,
- Abstract要約: グラフニューラルネットワーク(GNN)は,幅広いグラフ関連学習タスクにおいて,優れたパフォーマンスを実現している。
それらの予測を説明することは難しい問題であり、特に訓練中に使われたグラフと説明中に遭遇したグラフのミスマッチのためである。
既存のほとんどの手法は、重み付きグラフ上のソフトエッジマスクを最適化して重要な部分構造を強調するが、これらのグラフはGNNが訓練されている未重み付きグラフとは異なる。
この分布シフトは信頼性の低い勾配と劣化した説明品質につながる。
モデルのトレーニングデータ分布と重み付けを整合させることにより、説明の堅牢性を改善する新しい反復的説明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.275755958823835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved remarkable performance in a wide range of graph-related learning tasks. However, explaining their predictions remains a challenging problem, especially due to the mismatch between the graphs used during training and those encountered during explanation. Most existing methods optimize soft edge masks on weighted graphs to highlight important substructures, but these graphs differ from the unweighted graphs on which GNNs are trained. This distributional shift leads to unreliable gradients and degraded explanation quality, especially when generating small, sparse subgraphs. To address this issue, we propose a novel iterative explanation framework which improves explanation robustness by aligning the model's training data distribution with the weighted graph distribution appeared during explanation. Our method alternates between two phases: explanation subgraph identification and model adaptation. It begins with a relatively large explanation subgraph where soft mask optimization is reliable. Based on this subgraph, we assign importance-aware edge weights to explanatory and non-explanatory edges, and retrain the GNN on these weighted graphs. This process is repeated with progressively smaller subgraphs, forming an iterative refinement procedure. We evaluate our method on multiple benchmark datasets using different GNN backbones and explanation methods. Experimental results show that our method consistently improves explanation quality and can be flexibly integrated with different architectures.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,幅広いグラフ関連学習タスクにおいて,優れたパフォーマンスを実現している。
しかし、特にトレーニング中に使用するグラフと説明中に遭遇するグラフとのミスマッチのため、これらの予測を説明することは難しい問題である。
既存のほとんどの手法は、重み付きグラフ上のソフトエッジマスクを最適化して重要な部分構造を強調するが、これらのグラフはGNNが訓練されている未重み付きグラフとは異なる。
この分布シフトは、特に小さなスパース部分グラフを生成する際に、信頼性の低い勾配と劣化した説明品質をもたらす。
そこで本研究では,モデルのトレーニングデータ分布と重み付きグラフ分布とを整合させることにより,説明堅牢性を向上させる新しい反復的説明フレームワークを提案する。
提案手法は,説明サブグラフ識別とモデル適応の2つのフェーズを交互に行う。
これは比較的大きな説明文から始まり、ソフトマスクの最適化が信頼できる。
この部分グラフに基づいて,説明的および非説明的エッジに重要視されるエッジ重みを割り当て,これらの重み付きグラフ上でGNNを再訓練する。
このプロセスは徐々に小さなサブグラフで繰り返され、反復的な精錬手順を形成する。
我々は,異なるGNNバックボーンと説明手法を用いて,複数のベンチマークデータセット上で評価を行った。
実験結果から,提案手法は説明品質を常に改善し,異なるアーキテクチャと柔軟に統合できることが示唆された。
関連論文リスト
- A Flexible, Equivariant Framework for Subgraph GNNs via Graph Products and Graph Coarsening [18.688057947275112]
サブグラフGNNはグラフをサブグラフの集合として表現することで、メッセージパッシングGNNの表現性を高める。
以前のアプローチでは、ランダムまたは学習可能なサンプリングによって、サブグラフの小さなサブセットを生成する試みがあった。
本稿では,これらの問題に対処する新しいSubgraph GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-13T16:29:06Z) - Generating In-Distribution Proxy Graphs for Explaining Graph Neural Networks [17.71313964436965]
GNNの説明可能性のための一般的なパラダイムは、ラベルを元のグラフと比較することで説明可能な部分グラフを特定することである。
この課題は、トレーニングセットの元のグラフから説明可能なサブグラフのセットへの相当な分布シフトのため、難しい。
本稿では,学習データの分布を示す説明可能な部分グラフのプロキシグラフを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-03T05:19:02Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Structural Explanations for Graph Neural Networks using HSIC [21.929646888419914]
グラフニューラルネットワーク(GNN)は、グラフィカルなタスクをエンドツーエンドで処理するニューラルネットワークの一種である。
GNNの複雑なダイナミクスは、グラフの特徴のどの部分が予測に強く寄与しているかを理解するのを困難にしている。
本研究では,グラフ内の重要な構造を検出するために,フレキシブルモデルに依存しない説明法を提案する。
論文 参考訳(メタデータ) (2023-02-04T09:46:47Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - SoftEdge: Regularizing Graph Classification with Random Soft Edges [18.165965620873745]
グラフデータ拡張はグラフニューラルネットワーク(GNN)の正規化において重要な役割を果たす
単純なエッジとノード操作は、同じ構造を持つグラフや、GNNをメッセージパッシングするための区別できない構造を生成することができる。
我々は,任意のグラフのエッジの一部にランダムな重みを割り当てて,そのグラフ上の動的近傍を構築するSoftEdgeを提案する。
論文 参考訳(メタデータ) (2022-04-21T20:12:36Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。