論文の概要: MeixnerNet: Adaptive and Robust Spectral Graph Neural Networks with Discrete Orthogonal Polynomials
- arxiv url: http://arxiv.org/abs/2511.00113v1
- Date: Thu, 30 Oct 2025 23:50:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.61497
- Title: MeixnerNet: Adaptive and Robust Spectral Graph Neural Networks with Discrete Orthogonal Polynomials
- Title(参考訳): MeixnerNet:離散直交多項式を持つ適応およびロバストスペクトルグラフニューラルネットワーク
- Authors: Huseyin Goksu,
- Abstract要約: 本稿では,離散直交を用いた新しいスペクトルGNNアーキテクチャであるMeixnerNetを紹介する。
We show that MeixnerNet is comparable robust to variations in degrees K, collapsing in performance where ChebyNet proves very fragile。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral Graph Neural Networks (GNNs) have achieved state-of-the-art results by defining graph convolutions in the spectral domain. A common approach, popularized by ChebyNet, is to use polynomial filters based on continuous orthogonal polynomials (e.g., Chebyshev). This creates a theoretical disconnect, as these continuous-domain filters are applied to inherently discrete graph structures. We hypothesize this mismatch can lead to suboptimal performance and fragility to hyperparameter settings. In this paper, we introduce MeixnerNet, a novel spectral GNN architecture that employs discrete orthogonal polynomials -- specifically, the Meixner polynomials $M_k(x; \beta, c)$. Our model makes the two key shape parameters of the polynomial, beta and c, learnable, allowing the filter to adapt its polynomial basis to the specific spectral properties of a given graph. We overcome the significant numerical instability of these polynomials by introducing a novel stabilization technique that combines Laplacian scaling with per-basis LayerNorm. We demonstrate experimentally that MeixnerNet achieves competitive-to-superior performance against the strong ChebyNet baseline at the optimal K = 2 setting (winning on 2 out of 3 benchmarks). More critically, we show that MeixnerNet is exceptionally robust to variations in the polynomial degree K, a hyperparameter to which ChebyNet proves to be highly fragile, collapsing in performance where MeixnerNet remains stable.
- Abstract(参考訳): スペクトル領域におけるグラフ畳み込みを定義することにより、スペクトルグラフニューラルネットワーク(GNN)は最先端の結果を得た。
ChebyNetによって一般化された一般的なアプローチは、連続直交多項式(例えば、Chebyshev)に基づいた多項式フィルタを使用することである。
これにより、連続領域フィルタが本質的に離散的なグラフ構造に適用されるため、理論的な切断が生じる。
このミスマッチは、ハイパーパラメータ設定に対する最適以下の性能と脆弱性をもたらす可能性があると仮定する。
本稿では、離散直交多項式を用いる新しいスペクトルGNNアーキテクチャであるMeixnerNetを紹介し、具体的には、Meixner多項式を$M_k(x; \beta, c)$とする。
我々のモデルは多項式の2つのキー形状パラメータであるベータとcを学習可能とし、フィルタはその多項式基底を与えられたグラフの特定のスペクトル特性に適応させることができる。
これらの多項式の重大な数値不安定性を克服するために、ラプラシアンスケーリングとバス当たりのLayerNormを組み合わせた新しい安定化手法を導入する。
我々は,MeixnerNetが最適なK = 2設定(3つのベンチマークのうち2つで勝利)で,強靭なChebyNetベースラインに対する競争優位性を達成することを実験的に実証した。
さらに重要なことは、MixnerNet は多項式次数 K の変動に対して非常に頑健であり、ChebyNet が非常に脆弱であることを証明したハイパーパラメータであり、MeixnerNet が安定な状態にある性能において崩壊することを示している。
関連論文リスト
- Piecewise Constant Spectral Graph Neural Network [5.048196692772085]
グラフニューラルネットワーク(GNN)は、データ内のグラフ構造を活用することで、さまざまな領域で大きな成功を収めている。
既存のスペクトルGNNは、スペクトル特性を捉えるために低度フィルタを使用しており、グラフのスペクトル特性が小さいため、完全には識別できない可能性がある。
これらの課題に対処するために、PieCoN(Constant Piecewise Spectral Graph Neural Network)を導入する。
論文 参考訳(メタデータ) (2025-05-07T21:17:06Z) - From ChebNet to ChebGibbsNet [4.600280055873605]
スペクトルグラフ畳み込みネットワーク(SpecGCN)の可能性の解析
我々は、ChebNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと異質グラフの両方において優れていることを示す。
我々の実験は、ChebGibbsNetが、GPR-GNNやBernNetのような他の先進的なSpecGCNよりも、均質グラフと不均一グラフの両方において優れていることを示している。
論文 参考訳(メタデータ) (2024-12-02T18:37:45Z) - GrassNet: State Space Model Meets Graph Neural Network [57.62885438406724]
Graph State Space Network (GrassNet)は、任意のグラフスペクトルフィルタを設計するためのシンプルで効果的なスキームを提供する理論的なサポートを持つ、新しいグラフニューラルネットワークである。
我々の知る限り、我々の研究はグラフGNNスペクトルフィルタの設計にSSMを使った最初のものである。
9つの公開ベンチマークでの大規模な実験により、GrassNetは現実世界のグラフモデリングタスクにおいて優れたパフォーマンスを達成することが明らかになった。
論文 参考訳(メタデータ) (2024-08-16T07:33:58Z) - Polynomial Selection in Spectral Graph Neural Networks: An Error-Sum of Function Slices Approach [26.79625547648669]
グラフフィルタの適用により、グラフニューラルネットワークに固有のスペクトル情報を活用するために、スペクトルグラフネットワークが提案されている。
様々な選択がスペクトルGNNの性能に大きな影響を与え、パラメータ選択の重要性が強調される。
我々は、狭帯域信号スライスを近似する選択肢として広く採用されている三角法に基づく高度なフィルタを開発した。
論文 参考訳(メタデータ) (2024-04-15T11:35:32Z) - Improving Expressive Power of Spectral Graph Neural Networks with Eigenvalue Correction [55.57072563835959]
本稿では,繰り返し入力される固有値の制約からフィルタを解放する固有値補正手法を提案する。
具体的には、提案した固有値補正戦略により、固有値の均一分布が向上し、フィルタの適合能力と表現力が向上する。
論文 参考訳(メタデータ) (2024-01-28T08:12:00Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Convolutional Neural Networks on Graphs with Chebyshev Approximation,
Revisited [80.29747781984135]
ChebNetは、Chebyshevsを使ってスペクトルグラフの畳み込みを近似する初期の試みの1つである。
GCNはChebNetを単純化し、最初の2つのChebyshevしか利用せず、実際のデータセットでは依然としてパフォーマンスが優れている。
本稿では,Chebyshevに基づく新しいGNNモデルであるChebNetIIを提案する。
論文 参考訳(メタデータ) (2022-02-04T09:11:13Z) - Stacked Graph Filter [19.343260981528186]
グラフ信号処理の観点から,グラフ畳み込みネットワーク(GCN)について検討する。
学習可能な解パラメータでグラフフィルタを積み重ねることで、高度に適応的で堅牢なグラフ分類モデルを構築することができる。
論文 参考訳(メタデータ) (2020-11-22T11:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。