論文の概要: L2G-Net: Local to Global Spectral Graph Neural Networks via Cauchy Factorizations
- arxiv url: http://arxiv.org/abs/2602.18837v1
- Date: Sat, 21 Feb 2026 13:53:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.344863
- Title: L2G-Net: Local to Global Spectral Graph Neural Networks via Cauchy Factorizations
- Title(参考訳): L2G-Net:因果分解によるグローバルスペクトルグラフニューラルネットワークのローカル化
- Authors: Samuel Fernández-Menduiña, Eduardo Pavez, Antonio Ortega,
- Abstract要約: グラフフーリエ変換(GFT)の分解に基づく新しいスペクトルグラフニューラルネットワーク(GNN)を提案する。
我々は,L2G-Netが既存のスペクトル技術より優れており,学習可能なパラメータの桁数が桁違いである現状と競合していることを示す。
- 参考スコア(独自算出の注目度): 31.210700220124192
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite their theoretical advantages, spectral methods based on the graph Fourier transform (GFT) are seldom used in graph neural networks (GNNs) due to the cost of computing the eigenbasis and the lack of vertex-domain locality in spectral representations. As a result, most GNNs rely on local approximations such as polynomial Laplacian filters or message passing, which limit their ability to model long-range dependencies. In this paper, we introduce a novel factorization of the GFT into operators acting on subgraphs, which are then combined via a sequence of Cauchy matrices. We use this factorization to propose a new class of spectral GNNs, which we term L2G-Net (Local-to-Global Net). Unlike existing spectral methods, which are either fully global (when they use the GFT) or local (when they use polynomial filters), L2G-Net operates by processing the spectral representations of subgraphs and then combining them via structured matrices. Our algorithm avoids full eigendecompositions, exploiting graph topology to construct the factorization with quadratic complexity in the number of nodes, scaled by the subgraph interface size. Experiments on benchmarks stressing non-local dependencies show that L2G-Net outperforms existing spectral techniques and is competitive with the state-of-the-art with orders of magnitude fewer learnable parameters.
- Abstract(参考訳): 理論上の優位性にもかかわらず、グラフフーリエ変換(GFT)に基づくスペクトル法は、固有基底の計算コストとスペクトル表現における頂点領域の局所性の欠如により、グラフニューラルネットワーク(GNN)ではほとんど使われない。
その結果、ほとんどのGNNは多項式ラプラシアフィルタやメッセージパッシングのような局所近似に依存しており、長距離依存をモデル化する能力を制限している。
本稿では,GFT を代入グラフに作用する演算子に新しい因子分解を導入し,コーシー行列の列を通じて結合する。
本稿では,L2G-Net (Local-to-Global Net) と呼ぶスペクトルGNNの新たなクラスを提案する。
完全に大域的(GFTを使用する場合)または局所的(多項式フィルタを使用する場合)である既存のスペクトル法とは異なり、L2G-Netはサブグラフのスペクトル表現を処理し、構造化行列を介してそれらを結合する。
提案アルゴリズムは,グラフトポロジを利用して,ノード数に2次複雑度を持つ因子分解を構成することで,全固有分解を回避する。
局所的に依存しないベンチマーク実験により、L2G-Netは既存のスペクトル技術よりも優れており、最先端の手法と競合し、学習可能なパラメータの桁数が桁違いであることが示された。
関連論文リスト
- Large-Scale Spectral Graph Neural Networks via Laplacian Sparsification: Technical Report [21.288230563135055]
スペクトルグラフニューラルネットワーク(GNN)の伝搬パターンを近似する新しいグラフスペクトルスカラー化法を提案する。
提案手法では,入力ノード機能に線形レイヤを適用でき,エンドツーエンドのトレーニングや生の機能の処理が可能となる。
論文 参考訳(メタデータ) (2025-01-08T15:36:19Z) - GrassNet: State Space Model Meets Graph Neural Network [57.62885438406724]
Graph State Space Network (GrassNet)は、任意のグラフスペクトルフィルタを設計するためのシンプルで効果的なスキームを提供する理論的なサポートを持つ、新しいグラフニューラルネットワークである。
我々の知る限り、我々の研究はグラフGNNスペクトルフィルタの設計にSSMを使った最初のものである。
9つの公開ベンチマークでの大規模な実験により、GrassNetは現実世界のグラフモデリングタスクにおいて優れたパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2024-08-16T07:33:58Z) - A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - ASWT-SGNN: Adaptive Spectral Wavelet Transform-based Self-Supervised
Graph Neural Network [20.924559944655392]
本稿では,適応スペクトルウェーブレット変換を用いた自己教師付きグラフニューラルネットワーク(ASWT-SGNN)を提案する。
ASWT-SGNNは高密度スペクトル領域におけるフィルタ関数を正確に近似し、コストの高い固有分解を避ける。
ノード分類タスクにおける最先端モデルに匹敵するパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-10T03:07:42Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - How Powerful are Spectral Graph Neural Networks [9.594432031144715]
スペクトルグラフニューラルネットワーク(Spectral Graph Neural Network)は、グラフ信号フィルタに基づくグラフニューラルネットワークの一種である。
まず、非線形性のないスペクトルGNNでさえ任意のグラフ信号を生成することを証明した。
また、スペクトルGNNの表現力とグラフアイソモーフィズム(GI)テストの関連性を確立する。
論文 参考訳(メタデータ) (2022-05-23T10:22:12Z) - Pointspectrum: Equivariance Meets Laplacian Filtering for Graph
Representation Learning [3.7875603451557063]
グラフ表現学習(GRL)は、現代のグラフデータマイニングおよび学習タスクに欠かせないものとなっている。
グラフニューラルネットワーク(GNN)は最先端のGRLアーキテクチャで使用されているが、過度なスムース化に悩まされていることが示されている。
本稿では,グラフの構造を考慮に入れたスペクトル法であるPointSpectrumを提案する。
論文 参考訳(メタデータ) (2021-09-06T10:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。