論文の概要: Why does your graph neural network fail on some graphs? Insights from exact generalisation error
- arxiv url: http://arxiv.org/abs/2509.10337v1
- Date: Fri, 12 Sep 2025 15:18:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.141987
- Title: Why does your graph neural network fail on some graphs? Insights from exact generalisation error
- Title(参考訳): グラフニューラルネットワークはなぜいくつかのグラフで失敗するのか?
- Authors: Nil Ayday, Mahalakshmi Sabanayagam, Debarghya Ghoshdastidar,
- Abstract要約: 我々は、畳み込み、PageRankベース、アテンションベースモデルを含む幅広いGNNに対して、最初の正確な一般化誤差を導出する。
我々の研究は、GNNが構造情報や特徴情報を効果的に活用できる時期と理由を説明するフレームワークを提供する。
- 参考スコア(独自算出の注目度): 9.227034835080307
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are widely used in learning on graph-structured data, yet a principled understanding of why they succeed or fail remains elusive. While prior works have examined architectural limitations such as over-smoothing and over-squashing, these do not explain what enables GNNs to extract meaningful representations or why performance varies drastically between similar architectures. These questions are related to the role of generalisation: the ability of a model to make accurate predictions on unlabelled data. Although several works have derived generalisation error bounds for GNNs, these are typically loose, restricted to a single architecture, and offer limited insight into what governs generalisation in practice. In this work, we take a different approach by deriving the exact generalisation error for GNNs in a transductive fixed-design setting through the lens of signal processing. From this viewpoint, GNNs can be interpreted as graph filter operators that act on node features via the graph structure. By focusing on linear GNNs while allowing non-linearity in the graph filters, we derive the first exact generalisation error for a broad range of GNNs, including convolutional, PageRank-based, and attention-based models. The exact characterisation of the generalisation error reveals that only the aligned information between node features and graph structure contributes to generalisation. Furthermore, we quantify the effect of homophily on generalisation. Our work provides a framework that explains when and why GNNs can effectively leverage structural and feature information, offering practical guidance for model selection.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データの学習に広く使用されているが、なぜ成功したのか、失敗したのかを原則的に理解している。
以前の研究では、オーバースムーシングやオーバースキャッシングといったアーキテクチャ上の制限について検討されていたが、これらは、GNNが意味のある表現を抽出できる理由や、類似アーキテクチャ間でパフォーマンスが大きく異なる理由を説明できない。
これらの疑問は一般化の役割に関連しており、モデルが不正なデータに対して正確な予測を行う能力である。
いくつかの研究はGNNの一般化誤差境界を導出したが、それらは一般には緩く、単一のアーキテクチャに制限され、実際に一般化を支配するものについての限られた洞察を与えている。
本研究では,信号処理のレンズによるトランスダクティブな固定設計設定において,GNNの正確な一般化誤差を導出することで,異なるアプローチをとる。
この観点から、GNNはグラフ構造を介してノード機能に作用するグラフフィルタ演算子と解釈できる。
グラフフィルタにおける非線形性を許容しながら線形GNNに焦点を当てることで、畳み込み、PageRankベース、アテンションベースモデルを含む幅広いGNNに対して、最初の正確な一般化誤差を導出する。
一般化誤差の正確な特徴付けは、ノード特徴とグラフ構造の間の整列情報のみが一般化に寄与することを明らかにする。
さらに、ホモフィリーが一般化に与える影響を定量化する。
我々の研究は、GNNが構造情報や特徴情報を効果的に活用し、モデル選択のための実用的なガイダンスを提供するためのフレームワークを提供する。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Debiasing Graph Neural Networks via Learning Disentangled Causal
Substructure [46.86463923605841]
本稿では、重度バイアスのあるトレーニンググラフについて、グラフ分類調査を行う。
我々は、GNNが常に決定を下すために急激な相関関係を探索する傾向があることに気付きました。
本稿では、因果部分構造とバイアス部分構造を学習するための一般的な非絡み合いGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:55:52Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。