論文の概要: Towards Comprehensive and Prerequisite-Free Explainer for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2505.14005v1
- Date: Tue, 20 May 2025 07:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.841953
- Title: Towards Comprehensive and Prerequisite-Free Explainer for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための包括的で必要のない説明者を目指して
- Authors: Han Zhang, Yan Wang, Guanfeng Liu, Pengfei Ding, Huaxiong Wang, Kwok-Yan Lam,
- Abstract要約: OPEN は GtextbfNN 用の新しい ctextbfOmprehensive と textbfPrerequisite-free textbfExplainer である。
データセットのサンプル空間全体を複数の環境に推論し、分割する。
同様の効率を維持しつつ、最先端の手法よりも優れ、現実のシナリオにおける堅牢性を高める。
- 参考スコア(独自算出の注目度): 21.527616921741437
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To enhance the reliability and credibility of graph neural networks (GNNs) and improve the transparency of their decision logic, a new field of explainability of GNNs (XGNN) has emerged. However, two major limitations severely degrade the performance and hinder the generalizability of existing XGNN methods: they (a) fail to capture the complete decision logic of GNNs across diverse distributions in the entire dataset's sample space, and (b) impose strict prerequisites on edge properties and GNN internal accessibility. To address these limitations, we propose OPEN, a novel c\textbf{O}mprehensive and \textbf{P}rerequisite-free \textbf{E}xplainer for G\textbf{N}Ns. OPEN, as the first work in the literature, can infer and partition the entire dataset's sample space into multiple environments, each containing graphs that follow a distinct distribution. OPEN further learns the decision logic of GNNs across different distributions by sampling subgraphs from each environment and analyzing their predictions, thus eliminating the need for strict prerequisites. Experimental results demonstrate that OPEN captures nearly complete decision logic of GNNs, outperforms state-of-the-art methods in fidelity while maintaining similar efficiency, and enhances robustness in real-world scenarios.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の信頼性と信頼性を高め、その決定ロジックの透明性を向上させるため、GNN(XGNN)の新たな説明可能性分野が出現した。
しかし、2つの大きな制限は性能を著しく低下させ、既存のXGNN法の一般化を妨げている。
(a)データセット全体のサンプル空間内の様々な分布にまたがるGNNの完全な決定ロジックをキャプチャできず、
b) エッジ特性とGNNの内部アクセシビリティに厳格な前提条件を課す。
これらの制限に対処するため、G\textbf{N}Ns に対して、新しい c\textbf{O}mprehensive と \textbf{P}rerequisite-free \textbf{E}xplainer である OPEN を提案する。
OPENは、文献の最初の研究として、データセットのサンプル空間全体を複数の環境に推論し、分割することができる。
OPENはさらに、各環境からのサブグラフをサンプリングし、それらの予測を分析することで、異なる分布にわたるGNNの決定ロジックを学習し、厳密な前提条件を不要にする。
実験の結果、OPENはGNNのほぼ完全な決定論理を捕捉し、類似の効率を維持しつつ、最先端の手法よりも優れ、現実のシナリオにおける堅牢性を高めることが示された。
関連論文リスト
- Hierarchical Uncertainty-Aware Graph Neural Network [3.4498722449655066]
この研究は、階層的不確実性認識グラフニューラルネットワーク(HU-GNN)という新しいアーキテクチャを導入している。
マルチスケールな表現学習、原則的不確実性推定、および単一エンドツーエンドフレームワークにおける自己監督型埋め込み多様性を統一する。
具体的には、HU-GNNはノードクラスタを適応的に形成し、個々のノードからより高いレベルまでの複数の構造スケールで不確実性を推定する。
論文 参考訳(メタデータ) (2025-04-28T14:22:18Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Graph Learning with Distributional Edge Layouts [9.52772979855822]
グラフニューラルネットワーク(GNN)は、特定のトポロジ的レイアウト上のエッジに沿って隣接するノード間でローカルメッセージを渡すことによって、グラフ構造化データから学習する。
本稿では,これらのレイアウトを,ボルツマン分布に明示的な物理エネルギーを付加したランゲイン力学を用いて,世界規模でサンプル化できることを初めて提案する。
このようなサンプル/最適化レイアウトの集合は、広いエネルギー分布を捕捉し、WLテストの上に余分な表現性をもたらし、従って下流タスクを緩和することができると論じる。
論文 参考訳(メタデータ) (2024-02-26T08:55:10Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - Robust Graph Neural Networks via Probabilistic Lipschitz Constraints [7.359962178534361]
グラフニューラルネットワーク(GNN)は、最近、さまざまなネットワークベースのタスクでうまく機能することが実証されている。
GNNは入力のシフトや摂動の影響を受けやすく、ノード属性とグラフ構造の両方を含むことができる。
論文 参考訳(メタデータ) (2021-12-14T17:33:32Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。