論文の概要: Graph Representational Learning: When Does More Expressivity Hurt Generalization?
- arxiv url: http://arxiv.org/abs/2505.11298v1
- Date: Fri, 16 May 2025 14:28:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.272116
- Title: Graph Representational Learning: When Does More Expressivity Hurt Generalization?
- Title(参考訳): グラフ表現学習: 表現力の向上はいつ一般化されるか?
- Authors: Sohir Maskey, Raffaele Paolino, Fabian Jogl, Gitta Kutyniok, Johannes F. Lutzeyer,
- Abstract要約: グラフニューラルネットワーク(GNN)は、構造化データを学ぶための強力なツールである。
グラフ間の構造的類似性の異なる度合いをキャプチャするプレメトリックの族を導入する。
私たちは、トレーニングとテストグラフ、モデルの複雑さ、トレーニングセットサイズの間の距離に依存する一般化境界を導出します。
- 参考スコア(独自算出の注目度): 15.458310474570299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are powerful tools for learning on structured data, yet the relationship between their expressivity and predictive performance remains unclear. We introduce a family of premetrics that capture different degrees of structural similarity between graphs and relate these similarities to generalization, and consequently, the performance of expressive GNNs. By considering a setting where graph labels are correlated with structural features, we derive generalization bounds that depend on the distance between training and test graphs, model complexity, and training set size. These bounds reveal that more expressive GNNs may generalize worse unless their increased complexity is balanced by a sufficiently large training set or reduced distance between training and test graphs. Our findings relate expressivity and generalization, offering theoretical insights supported by empirical results.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は構造化されたデータについて学習するための強力なツールであるが、その表現性と予測性能の関係はいまだ不明である。
グラフ間の異なる構造的類似度を捕捉し、これらの類似度を一般化に関連づけるプレメトリックス群を導入し、その結果、表現的GNNの性能について述べる。
グラフラベルが構造的特徴と相関する設定を考えることにより、トレーニンググラフとテストグラフの距離、モデルの複雑さ、トレーニングセットサイズに依存する一般化境界を導出する。
これらの境界は、より表現力のあるGNNが、その複雑さが十分に大きなトレーニングセットや、トレーニングとテストグラフの間の距離の縮減によってバランスが取れない限り、より一般化する可能性があることを示している。
本研究は, 表現性と一般化に関係し, 経験的結果に支えられた理論的洞察を提供する。
関連論文リスト
- Towards Bridging Generalization and Expressivity of Graph Neural Networks [11.560730203511111]
グラフニューラルネットワーク(GNN)における表現性と一般化の関係について検討する。
本稿では,GNNの一般化と,それらが捉えることのできるグラフ構造の分散を結合する新しいフレームワークを提案する。
我々は,クラス内濃度とクラス間分離のトレードオフを明らかにする。
論文 参考訳(メタデータ) (2024-10-14T00:31:16Z) - Introducing Diminutive Causal Structure into Graph Representation Learning [19.132025125620274]
本稿では,グラフニューラルネット(GNN)が専門的な最小の因果構造から洞察を得ることを可能にする新しい手法を提案する。
本手法は,これらの小型因果構造のモデル表現から因果知識を抽出する。
論文 参考訳(メタデータ) (2024-06-13T00:18:20Z) - Higher Order Structures For Graph Explanations [9.164945693135959]
グラフ説明における高階表現のためのフレームワーク(FORGE)を提案する。
FORGEはグラフ説明器が高次のマルチノードインタラクションをキャプチャすることを可能にする。
平均説明精度をそれぞれ1.9倍と2.25倍に改善する。
論文 参考訳(メタデータ) (2024-06-05T13:31:30Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - On the Expressiveness and Generalization of Hypergraph Neural Networks [77.65788763444877]
この拡張抽象化はハイパーグラフニューラルネットワーク(HyperGNN)の表現性、学習、および(構造的)一般化を分析するためのフレームワークを記述する。
具体的には、HyperGNNが有限データセットからどのように学習し、任意の入力サイズのグラフ推論問題に構造的に一般化するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-03-09T18:42:18Z) - Representation Power of Graph Neural Networks: Improved Expressivity via
Algebraic Analysis [124.97061497512804]
標準グラフニューラルネットワーク (GNN) はWeisfeiler-Lehman (WL) アルゴリズムよりも差別的な表現を生成する。
また、白い入力を持つ単純な畳み込みアーキテクチャは、グラフの閉経路をカウントする同変の特徴を生じさせることを示した。
論文 参考訳(メタデータ) (2022-05-19T18:40:25Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。