論文の概要: Spectral GNN via Two-dimensional (2-D) Graph Convolution
- arxiv url: http://arxiv.org/abs/2404.04559v1
- Date: Sat, 6 Apr 2024 08:53:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 20:39:11.476338
- Title: Spectral GNN via Two-dimensional (2-D) Graph Convolution
- Title(参考訳): 2次元(2次元)グラフ畳み込みによるスペクトルGNN
- Authors: Guoming Li, Jian Yang, Shangsong Liang, Dongsheng Luo,
- Abstract要約: 既存のスペクトルGNNは、スペクトルグラフ畳み込みの実行において重要な欠点を残していることを示す。
2次元グラフ畳み込みという新しい畳み込みパラダイムを提案する。
2次元グラフ畳み込みは既存のグラフ畳み込みパラダイムを統一し、任意の目標出力を構築することができることを示す。
- 参考スコア(独自算出の注目度): 26.79625547648669
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spectral Graph Neural Networks (GNNs) have achieved tremendous success in graph learning. As an essential part of spectral GNNs, spectral graph convolution extracts crucial frequency information in graph data, leading to superior performance of spectral GNNs in downstream tasks. However, in this paper, we show that existing spectral GNNs remain critical drawbacks in performing the spectral graph convolution. Specifically, considering the spectral graph convolution as a construction operation towards target output, we prove that existing popular convolution paradigms cannot construct the target output with mild conditions on input graph signals, causing spectral GNNs to fall into suboptimal solutions. To address the issues, we rethink the spectral graph convolution from a more general two-dimensional (2-D) signal convolution perspective and propose a new convolution paradigm, named 2-D graph convolution. We prove that 2-D graph convolution unifies existing graph convolution paradigms, and is capable to construct arbitrary target output. Based on the proposed 2-D graph convolution, we further propose ChebNet2D, an efficient and effective GNN implementation of 2-D graph convolution through applying Chebyshev interpolation. Extensive experiments on benchmark datasets demonstrate both effectiveness and efficiency of the ChebNet2D.
- Abstract(参考訳): スペクトルグラフニューラルネットワーク(GNN)はグラフ学習において大きな成功を収めている。
スペクトルGNNの重要な部分として、スペクトルグラフ畳み込みは、グラフデータにおいて重要な周波数情報を抽出し、下流タスクにおけるスペクトルGNNの性能を向上する。
しかし,本論文では,既存のスペクトルGNNがスペクトルグラフ畳み込みの実行において重要な欠点を残していることを示す。
具体的には、スペクトルグラフの畳み込みを目標出力への構築操作として考慮し、既存の一般的な畳み込みパラダイムは入力グラフ信号に穏やかな条件で目標出力を構築することができないことを証明し、スペクトルGNNを最適以下の解に分解する。
この問題に対処するため、より一般的な2次元(2次元)信号畳み込みの観点からスペクトルグラフ畳み込みを再考し、2次元グラフ畳み込みという新しい畳み込みパラダイムを提案する。
2次元グラフ畳み込みは既存のグラフ畳み込みパラダイムを統一し、任意の目標出力を構築することができることを示す。
提案した2次元グラフ畳み込みに基づいて,チェビシェフ補間による2次元グラフ畳み込みの効率的かつ効果的なGNN実装であるChebNet2Dを提案する。
ベンチマークデータセットに関する大規模な実験は、ChebNet2Dの有効性と効率を実証している。
関連論文リスト
- Higher-Order GNNs Meet Efficiency: Sparse Sobolev Graph Neural Networks [6.080095317098909]
グラフニューラルネットワーク(GNN)は,グラフ内のノード間の関係をモデル化する上で,非常に有望であることを示す。
これまでの研究では、主にグラフ内の高次隣人からの情報を活用しようと試みてきた。
我々は基本的な観察を行い、ラプラシア行列の正則とアダマールの力はスペクトルでも同様に振る舞う。
グラフ信号のスパースなソボレフノルムに基づく新しいグラフ畳み込み演算子を提案する。
論文 参考訳(メタデータ) (2024-11-07T09:53:11Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Graph Distillation with Eigenbasis Matching [43.59076214528843]
実グラフの代わりに固有基底マッチング(GDEM)を用いたグラフ蒸留を提案する。
GDEMは実グラフと合成グラフの固有基底とノード特徴を整列する。
実グラフのスペクトルを直接再現することで、GNNの影響を防止できる。
論文 参考訳(メタデータ) (2023-10-13T15:48:12Z) - Specformer: Spectral Graph Neural Networks Meet Transformers [51.644312964537356]
スペクトルグラフニューラルネットワーク(GNN)は、スペクトル領域グラフ畳み込みを通じてグラフ表現を学習する。
本稿では、全ての固有値の集合を効果的に符号化し、スペクトル領域で自己アテンションを行うSpecformerを紹介する。
複数のSpecformerレイヤを積み重ねることで、強力なスペクトルGNNを構築することができる。
論文 参考訳(メタデータ) (2023-03-02T07:36:23Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - How Powerful are Spectral Graph Neural Networks [9.594432031144715]
スペクトルグラフニューラルネットワーク(Spectral Graph Neural Network)は、グラフ信号フィルタに基づくグラフニューラルネットワークの一種である。
まず、非線形性のないスペクトルGNNでさえ任意のグラフ信号を生成することを証明した。
また、スペクトルGNNの表現力とグラフアイソモーフィズム(GI)テストの関連性を確立する。
論文 参考訳(メタデータ) (2022-05-23T10:22:12Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Bridging the Gap Between Spectral and Spatial Domains in Graph Neural
Networks [8.563354084119062]
空間領域やスペクトル領域におけるグラフ畳み込み過程の等価性を示す。
提案フレームワークは、空間領域に適用しながら、独自の周波数プロファイルを持つスペクトル領域の新しい畳み込みを設計するために使用される。
論文 参考訳(メタデータ) (2020-03-26T01:49:24Z) - Graphon Pooling in Graph Neural Networks [169.09536309161314]
グラフニューラルネットワーク(GNN)は、グラフによってモデル化された不規則構造上の信号の処理を含む様々なアプリケーションで効果的に使用されている。
本稿では,グラフのスペクトル特性を保存したグラフオンを用いて,GNNのプールとサンプリングを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T21:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。