論文の概要: L-JacobiNet and S-JacobiNet: An Analysis of Adaptive Generalization, Stabilization, and Spectral Domain Trade-offs in GNNs
- arxiv url: http://arxiv.org/abs/2511.16081v1
- Date: Thu, 20 Nov 2025 06:17:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.494674
- Title: L-JacobiNet and S-JacobiNet: An Analysis of Adaptive Generalization, Stabilization, and Spectral Domain Trade-offs in GNNs
- Title(参考訳): L-JacobiNetとS-JacobiNet:GNNにおける適応的一般化・安定化・スペクトル領域トレードオフの分析
- Authors: Huseyin Goksu,
- Abstract要約: ChebyNetのようなスペクトルGNNは、静的で低パスのフィルタ設計のため、ヘテロフィリーとオーバースムーシングによって制限されている。
本研究では, 適応直交多項式フィルタ (AOPF) を解として検討する。
1) L-JacobiNet、学習可能なアルファ、ベータ形状パラメータを持つChebyNetの適応的一般化、2) S-JacobiNetはLayerNorm安定化静的ChebyNetを表す新しいベースラインである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral GNNs, like ChebyNet, are limited by heterophily and over-smoothing due to their static, low-pass filter design. This work investigates the "Adaptive Orthogonal Polynomial Filter" (AOPF) class as a solution. We introduce two models operating in the [-1, 1] domain: 1) `L-JacobiNet`, the adaptive generalization of `ChebyNet` with learnable alpha, beta shape parameters, and 2) `S-JacobiNet`, a novel baseline representing a LayerNorm-stabilized static `ChebyNet`. Our analysis, comparing these models against AOPFs in the [0, infty) domain (e.g., `LaguerreNet`), reveals critical, previously unknown trade-offs. We find that the [0, infty) domain is superior for modeling heterophily, while the [-1, 1] domain (Jacobi) provides superior numerical stability at high K (K>20). Most significantly, we discover that `ChebyNet`'s main flaw is stabilization, not its static nature. Our static `S-JacobiNet` (ChebyNet+LayerNorm) outperforms the adaptive `L-JacobiNet` on 4 out of 5 benchmark datasets, identifying `S-JacobiNet` as a powerful, overlooked baseline and suggesting that adaptation in the [-1, 1] domain can lead to overfitting.
- Abstract(参考訳): ChebyNetのようなスペクトルGNNは、静的で低パスのフィルタ設計のため、ヘテロフィリーとオーバースムーシングによって制限されている。
本研究では, 適応直交多項式フィルタ (AOPF) を解として検討する。
我々は[-1, 1]ドメインで動作する2つのモデルを紹介します。
1) `L-JacobiNet`、学習可能なアルファ、ベータ形状パラメータを持つ `ChebyNet` の適応的一般化。
2) `S-JacobiNet` はLayerNormが安定化した静的 `ChebyNet` を表す新しいベースラインである。
我々は,これらのモデルを [0, infty) 領域の AOPF と比較すると,(例えば, `LaguerreNet` ) 臨界かつ従来未知のトレードオフが明らかになる。[0, infty) ドメインはヘテロフィリなモデリングに優れているのに対して,[-1, 1] ドメイン (Jacobi) は高い K (K>20) において優れた数値安定性を提供するのに対し,[0, infty) ドメインはヘテロフィリなモデリングに優れていることを見出した。
最も顕著なのは、'ChebyNet`の主な欠陥は、静的な性質ではなく、安定化であることです。
私たちの静的な `S-JacobiNet` (ChebyNet+LayerNorm) は、5つのベンチマークデータセットのうち4つで適応型の `L-JacobiNet` よりも優れています。
関連論文リスト
- HybSpecNet: A Critical Analysis of Architectural Instability in Hybrid-Domain Spectral GNNs [0.0]
スペクトルグラフニューラルネットワークは、グラフフィルタリングに対する原則的なアプローチを提供する。
基本的な"安定性-vs.適応性"のトレードオフに直面しています。
我々は,安定なChebyNetブランチと適応的なKrawtchoukNetブランチを組み合わせたハイブリッドドメインGNNHybSpecNetを提案する。
論文 参考訳(メタデータ) (2025-11-20T06:47:44Z) - LaguerreNet: Advancing a Unified Solution for Heterophily and Over-smoothing with Adaptive Continuous Polynomials [0.0]
LaguerreNetは連続的なLaguerres Neuralsに基づく新しいGNNフィルタである。
オーバースムーシングには極めて堅牢で、パフォーマンスはK=10で、ChebyNetが崩壊する範囲を超えている。
論文 参考訳(メタデータ) (2025-11-19T10:47:23Z) - A Fresh Look at Generalized Category Discovery through Non-negative Matrix Factorization [83.12938977698988]
Generalized Category Discovery (GCD) は、ラベル付きベースデータを用いて、ベース画像と新規画像の両方を分類することを目的としている。
現在のアプローチでは、コサイン類似性に基づく共起行列 $barA$ の固有の最適化に不適切に対処している。
本稿では,これらの欠陥に対処するNon-Negative Generalized Category Discovery (NN-GCD) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T07:24:11Z) - On the Trade-Off between Stability and Representational Capacity in
Graph Neural Networks [22.751509906413943]
20以上のソリューションを統合する汎用GNNフレームワークであるEdgeNetの安定性について検討する。
異なるEdgeNetカテゴリの安定性への影響を調べた結果,パラメータ空間における自由度が低いGNNの方が,表現能力の低いGNNの方がより安定であることが判明した。
論文 参考訳(メタデータ) (2023-12-04T22:07:17Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。