論文の概要: Graph-based Integrated Gradients for Explaining Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2509.07648v1
- Date: Tue, 09 Sep 2025 12:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.298049
- Title: Graph-based Integrated Gradients for Explaining Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの説明のためのグラフベース統合勾配
- Authors: Lachlan Simpson, Kyle Millar, Adriel Cheng, Cheng-Chew Lim, Hong Gunn Chew,
- Abstract要約: 統合勾配(IG)はニューラルネットワークのブラックボックス問題に対処する手法である。
グラフに対するIGの拡張であるグラフベース統合勾配(GB-IG)を導入する。
GB-IGが分類タスクで使用するグラフの重要な構造成分を正確に識別する4つの合成データセットについて示す。
- 参考スコア(独自算出の注目度): 2.814217189803191
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Integrated Gradients (IG) is a common explainability technique to address the black-box problem of neural networks. Integrated gradients assumes continuous data. Graphs are discrete structures making IG ill-suited to graphs. In this work, we introduce graph-based integrated gradients (GB-IG); an extension of IG to graphs. We demonstrate on four synthetic datasets that GB-IG accurately identifies crucial structural components of the graph used in classification tasks. We further demonstrate on three prevalent real-world graph datasets that GB-IG outperforms IG in highlighting important features for node classification tasks.
- Abstract(参考訳): 統合グラディエンス(IG)はニューラルネットワークのブラックボックス問題に対処する一般的な説明可能性技術である。
積分勾配は連続データを仮定する。
グラフは、IGをグラフに不適合にする離散構造である。
本稿では,グラフに対するIGの拡張であるグラフベース統合勾配(GB-IG)を紹介する。
GB-IGが分類タスクで使用するグラフの重要な構造成分を正確に識別する4つの合成データセットについて示す。
さらに、GB-IGがIGより優れており、ノード分類タスクの重要な特徴を強調している3つの一般的な実世界のグラフデータセットを実証する。
関連論文リスト
- Diffusion on Graph: Augmentation of Graph Structure for Node Classification [7.9233221247736205]
グラフニューラルネットワーク(GNN)の性能を高めるために合成グラフ構造を生成するグラフ拡散(DoG)を提案する。
DoGによって生成された合成グラフ構造は、元のグラフと組み合わせて、ノードレベルの学習タスクのトレーニングのための拡張グラフを形成する。
合成グラフ構造によるノイズの悪影響を軽減するために,低ランク正規化法を提案する。
論文 参考訳(メタデータ) (2025-03-16T16:39:25Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - The GECo algorithm for Graph Neural Networks Explanation [0.0]
本稿では,グラフ分類問題の解釈可能性に対処するために,グラフコミュニティを包含する新たな方法論を提案する。
GECoと呼ばれる提案手法は、コミュニティがグラフノードの密結合部分集合であるなら、この性質はグラフ分類において役割を果たすべきであるという考えを生かしている。
得られた結果は、人工グラフデータセットおよびほとんどの実世界のデータセットの他の手法よりも優れている。
論文 参考訳(メタデータ) (2024-11-18T09:08:30Z) - Greener GRASS: Enhancing GNNs with Encoding, Rewiring, and Attention [12.409982249220812]
本稿では,新しいGNNアーキテクチャであるGraph Attention with Structures (GRASS)を紹介する。
GRASSはランダムな正規グラフを重畳して入力グラフをリワイヤし、長距離情報伝搬を実現する。
また、グラフ構造化データに適した新しい付加的注意機構も採用している。
論文 参考訳(メタデータ) (2024-07-08T06:21:56Z) - Graph Distillation with Eigenbasis Matching [43.59076214528843]
実グラフの代わりに固有基底マッチング(GDEM)を用いたグラフ蒸留を提案する。
GDEMは実グラフと合成グラフの固有基底とノード特徴を整列する。
実グラフのスペクトルを直接再現することで、GNNの影響を防止できる。
論文 参考訳(メタデータ) (2023-10-13T15:48:12Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Graph Transformer GANs for Graph-Constrained House Generation [223.739067413952]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
GTGANは、グラフ制約のある住宅生成タスクにおいて、エンドツーエンドで効率的なグラフノード関係を学習する。
論文 参考訳(メタデータ) (2023-03-14T20:35:45Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。