論文の概要: GegenbauerNet: Finding the Optimal Compromise in the GNN Flexibility-Stability Trade-off
- arxiv url: http://arxiv.org/abs/2511.13730v1
- Date: Tue, 04 Nov 2025 19:39:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.325063
- Title: GegenbauerNet: Finding the Optimal Compromise in the GNN Flexibility-Stability Trade-off
- Title(参考訳): GegenbauerNet: GNNフレキシビリティ-安定性トレードオフにおける最適な妥協を見つける
- Authors: Huseyin Goksu,
- Abstract要約: 標準[-1, 1]ドメインで動作するスペクトルグラフニューラルネットワーク(GNN)は、基本的なフレキシビリティと安定性のトレードオフに直面している。
Gegenbauer 対称性に基づく新しい GNN フィルタ textbf GegenbauerNet を提案する。
我々は、GegenbauerNetが鍵となる局所フィルタリング方式において優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral Graph Neural Networks (GNNs) operating in the canonical [-1, 1] domain (like ChebyNet and its adaptive generalization, L-JacobiNet) face a fundamental Flexibility-Stability Trade-off. Our previous work revealed a critical puzzle: the 2-parameter adaptive L-JacobiNet often suffered from high variance and was surprisingly outperformed by the 0-parameter, stabilized-static S-JacobiNet. This suggested that stabilization was more critical than adaptation in this domain. In this paper, we propose \textbf{GegenbauerNet}, a novel GNN filter based on the Gegenbauer polynomials, to find the Optimal Compromise in this trade-off. By enforcing symmetry (alpha=beta) but allowing a single shape parameter (lambda) to be learned, GegenbauerNet limits flexibility (variance) while escaping the fixed bias of S-JacobiNet. We demonstrate that GegenbauerNet (1-parameter) achieves superior performance in the key local filtering regime (K=2 on heterophilic graphs) where overfitting is minimal, validating the hypothesis that a controlled, symmetric degree of freedom is optimal. Furthermore, our comprehensive K-ablation study across homophilic and heterophilic graphs, using 7 diverse datasets, clarifies the domain's behavior: the fully adaptive L-JacobiNet maintains the highest performance on high-K filtering tasks, showing the value of maximum flexibility when regularization is managed. This study provides crucial design principles for GNN developers, showing that in the [-1, 1] spectral domain, the optimal filter depends critically on the target locality (K) and the acceptable level of design bias.
- Abstract(参考訳): 標準[-1, 1]ドメイン(ChebyNetとその適応一般化、L-JacobiNetなど)で動作するスペクトルグラフニューラルネットワーク(GNN)は、基本的な柔軟性と安定性のトレードオフに直面している。
2パラメータ適応型L-JacobiNetは、しばしば高いばらつきに悩まされ、0パラメータで安定なS-JacobiNetによって驚くほど優れていた。
このことは、この領域の適応よりも安定化が重要であることを示唆している。
本稿では,Gegenbauer 多項式に基づく新しい GNN フィルタである \textbf{GegenbauerNet} を提案する。
対称性(alpha=beta)を強制するが、単一の形状パラメータ(lambda)を学習させることで、GegenbauerNetはS-JacobiNetの固定バイアスを逃れながら柔軟性(分散)を制限する。
GegenbauerNet (1-parameter) は、オーバーフィッティングが最小限であり、制御された対称な自由度が最適であるという仮説を検証し、鍵局所フィルタリング方式(K=2)において優れた性能を発揮することを示した。
さらに、同好性グラフとヘテロ親和性グラフの総合的なK-ablation研究は、7つの多様なデータセットを用いて、ドメインの振舞いを明らかにしている。
本研究は, [-1, 1]スペクトル領域において, 最適フィルタがターゲット局所性(K)と許容される設計バイアスのレベルに依存することを示す, GNN開発者に重要な設計原則を提供する。
関連論文リスト
- HybSpecNet: A Critical Analysis of Architectural Instability in Hybrid-Domain Spectral GNNs [0.0]
スペクトルグラフニューラルネットワークは、グラフフィルタリングに対する原則的なアプローチを提供する。
基本的な"安定性-vs.適応性"のトレードオフに直面しています。
我々は,安定なChebyNetブランチと適応的なKrawtchoukNetブランチを組み合わせたハイブリッドドメインGNNHybSpecNetを提案する。
論文 参考訳(メタデータ) (2025-11-20T06:47:44Z) - L-JacobiNet and S-JacobiNet: An Analysis of Adaptive Generalization, Stabilization, and Spectral Domain Trade-offs in GNNs [0.0]
ChebyNetのようなスペクトルGNNは、静的で低パスのフィルタ設計のため、ヘテロフィリーとオーバースムーシングによって制限されている。
本研究では, 適応直交多項式フィルタ (AOPF) を解として検討する。
1) L-JacobiNet、学習可能なアルファ、ベータ形状パラメータを持つChebyNetの適応的一般化、2) S-JacobiNetはLayerNorm安定化静的ChebyNetを表す新しいベースラインである。
論文 参考訳(メタデータ) (2025-11-20T06:17:02Z) - KrawtchoukNet: A Unified GNN Solution for Heterophily and Over-smoothing with Adaptive Bounded Polynomials [0.0]
ChebyNetのようなフィルタに基づくスペクトルグラフネットワーク(GNN)には、2つの限界がある。
離散的なKrawtchouksに基づくGNNフィルタであるKrawtchoukNetを提案する。
この適応性により、KrawtchoukNetは、挑戦的なベンチマークでSOTA性能を達成することができることを示す。
論文 参考訳(メタデータ) (2025-11-19T10:47:15Z) - Towards a Unified Analysis of Neural Networks in Nonparametric Instrumental Variable Regression: Optimization and Generalization [66.08522228989634]
非パラメトリックインスツルメンタル変数回帰(NPIV)における2段階最小二乗法(2SLS)アプローチのためのニューラルネットワークの最初の大域収束結果を確立する。
これは平均場ランゲヴィンダイナミクス(MFLD)を通して持ち上げられた視点を採用することで達成される。
論文 参考訳(メタデータ) (2025-11-18T17:51:17Z) - DualLaguerreNet: A Decoupled Spectral Filter GNN and the Uncovering of the Flexibility-Stability Trade-off [0.0]
AOPF(Adaptive Orthogonal Polynomial Filter)クラス(例えばLaguerreNet)のようなスペクトルフィルタに基づくグラフネットワーク(GNN)は、ヘテロフィリーと過度なスムースティングのソリューションを統合することを約束している。
これらの単一フィルタモデルは、単一の適応パラメータ(例:アルファ)がグラフスペクトル全体にわたって最適な平均応答を学習しなければならないため、"妥協"問題に悩まされる。
我々は、DualLaguerreNetを提案する。これは、"Decoupled Spectral Flexibility"を導入することで、この問題を解決する新しいGNNアーキテクチャである。
論文 参考訳(メタデータ) (2025-11-04T19:33:29Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Provably tuning the ElasticNet across instances [53.0518090093538]
我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
論文 参考訳(メタデータ) (2022-07-20T21:22:40Z) - Delta-STN: Efficient Bilevel Optimization for Neural Networks using
Structured Response Jacobians [5.33024001730262]
自己チューニングネットワーク(STN)は,最近,内部目標の最適化を補正する能力によって,注目を集めている。
トレーニングを安定化する改良されたハイパーネットワークアーキテクチャであるDelta$-STNを提案する。
論文 参考訳(メタデータ) (2020-10-26T12:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。