論文の概要: HybSpecNet: A Critical Analysis of Architectural Instability in Hybrid-Domain Spectral GNNs
- arxiv url: http://arxiv.org/abs/2511.16101v1
- Date: Thu, 20 Nov 2025 06:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.50551
- Title: HybSpecNet: A Critical Analysis of Architectural Instability in Hybrid-Domain Spectral GNNs
- Title(参考訳): HybSpecNet: ハイブリッドドメインスペクトルGNNにおけるアーキテクチャ不安定性の批判的分析
- Authors: Huseyin Goksu,
- Abstract要約: スペクトルグラフニューラルネットワークは、グラフフィルタリングに対する原則的なアプローチを提供する。
基本的な"安定性-vs.適応性"のトレードオフに直面しています。
我々は,安定なChebyNetブランチと適応的なKrawtchoukNetブランチを組み合わせたハイブリッドドメインGNNHybSpecNetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spectral Graph Neural Networks offer a principled approach to graph filtering but face a fundamental "Stability-vs-Adaptivity" trade-off. This trade-off is dictated by the choice of spectral domain. Filters in the finite [-1, 1] domain (e.g., ChebyNet) are numerically stable at high polynomial degrees (K) but are static and low-pass, causing them to fail on heterophilic graphs. Conversely, filters in the semi-infinite [0, infty) domain (e.g., KrawtchoukNet) are highly adaptive and achieve SOTA results on heterophily by learning non-low-pass responses. However, as we demonstrate, these adaptive filters can also suffer from numerical instability, leading to catastrophic performance collapse at high K. In this paper, we propose to resolve this trade-off by designing a hybrid-domain GNN, HybSpecNet, which combines a stable `ChebyNet` branch with an adaptive `KrawtchoukNet` branch. We first demonstrate that a "naive" hybrid architecture, which fuses the branches via concatenation, successfully unifies performance at low K, achieving strong results on both homophilic and heterophilic benchmarks. However, we then prove that this naive architecture fails the stability test. Our K-ablation experiments show that this architecture catastrophically collapses at K=25, exactly mirroring the collapse of its unstable `KrawtchoukNet` branch. We identify this critical finding as "Instability Poisoning," where `NaN`/`Inf` gradients from the adaptive branch destroy the training of the model. Finally, we propose and validate an advanced architecture that uses "Late Fusion" to completely isolate the gradient pathways. We demonstrate that this successfully solves the instability problem, remaining perfectly stable up to K=30 while retaining its SOTA performance across all graph types. This work identifies a critical architectural pitfall in hybrid GNN design and provides the robust architectural solution.
- Abstract(参考訳): スペクトルグラフニューラルネットワークは、グラフフィルタリングの原則的なアプローチを提供するが、基本的な"安定性-vs-適応性"のトレードオフに直面している。
このトレードオフはスペクトル領域の選択によって決定される。
有限[-1, 1]領域(例えば、ChebyNet)のフィルタは高次数(K)では数値的に安定であるが、静的かつ低パスであり、不均一グラフでは失敗する。
逆に、半無限の[0, infty]領域のフィルタ(例えば、KrawtchoukNet)は高い適応性を持ち、非ローパス応答を学習することでヘテロフィリー上でSOTA結果を得る。
本稿では,ハイブリッドドメインGNNであるHybSpecNetを,安定な「ChebyNet」ブランチと適応型の「KrawtchoukNet」ブランチを組み合わせて設計することで,このトレードオフを解決することを提案する。
まず、結合によって分岐を融合させ、低Kでの性能を統一し、ホモ親和性およびヘテロ親和性の両方のベンチマークで強力な結果を得る「単純」ハイブリッドアーキテクチャを実証した。
しかし、この単純アーキテクチャが安定性テストに失敗することを証明する。
我々のK-ablation実験は、このアーキテクチャがK=25で破滅的に崩壊し、不安定なKrawtchoukNetブランチの崩壊を正確に反映していることを示している。
我々はこの重要な発見を「不安定中毒」とみなし、適応ブランチからの `NaN`/`Inf` 勾配がモデルのトレーニングを破壊する。
最後に,勾配経路を完全に分離するために「ラテフュージョン」を用いた高度なアーキテクチャを提案し,検証する。
これにより不安定な問題を解くことができ、全てのグラフタイプでSOTA性能を維持しながら、K=30まで完全に安定であることを示す。
この研究は、ハイブリッドGNN設計における重要なアーキテクチャの落とし穴を特定し、堅牢なアーキテクチャソリューションを提供する。
関連論文リスト
- LaguerreNet: Advancing a Unified Solution for Heterophily and Over-smoothing with Adaptive Continuous Polynomials [0.0]
LaguerreNetは連続的なLaguerres Neuralsに基づく新しいGNNフィルタである。
オーバースムーシングには極めて堅牢で、パフォーマンスはK=10で、ChebyNetが崩壊する範囲を超えている。
論文 参考訳(メタデータ) (2025-11-19T10:47:23Z) - KrawtchoukNet: A Unified GNN Solution for Heterophily and Over-smoothing with Adaptive Bounded Polynomials [0.0]
ChebyNetのようなフィルタに基づくスペクトルグラフネットワーク(GNN)には、2つの限界がある。
離散的なKrawtchouksに基づくGNNフィルタであるKrawtchoukNetを提案する。
この適応性により、KrawtchoukNetは、挑戦的なベンチマークでSOTA性能を達成することができることを示す。
論文 参考訳(メタデータ) (2025-11-19T10:47:15Z) - The Final-Stage Bottleneck: A Systematic Dissection of the R-Learner for Network Causal Inference [0.0]
本稿ではR-Learnerフレームワークグラフを体系的に解析する。
最終段階のCATE推定器の帰納バイアスがパフォーマンスの第一の要因であるという厳密な証拠を初めて提示する。
我々は微妙でトポロジに依存した「ニュアンスボトルネック」を識別し、機械的説明を提供する。
論文 参考訳(メタデータ) (2025-11-17T06:16:04Z) - A Signed Graph Approach to Understanding and Mitigating Oversmoothing in GNNs [54.62268052283014]
署名されたグラフの枠組みに基づく統一的な理論的視点を示す。
既存の戦略の多くは、メッセージパッシングを変えて過度な操作に抵抗する負のエッジを暗黙的に導入している。
本稿では,ラベルや特徴の類似性に基づいて署名されたエッジを割り当てるプラグイン・アンド・プレイ方式であるStructure Balanced Propagation (SBP)を提案する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
グラフニューラルネットワーク(GNN)におけるラベルフリップの正確な認証手法を提案する。
本稿では,ノード分類タスクにおける広範囲なGNNアーキテクチャの認証に本手法を適用した。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な認証を提示します。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Graph Structure Learning with Interpretable Bayesian Neural Networks [10.957528713294874]
独立に解釈可能なパラメータを持つ新しい反復を導入する。
これらのパラメータは、エッジ空間のような推定グラフの特性に影響を与える。
これらの反復を解いた後、そのようなグラフの特徴に関する事前知識は、事前分布を形作る。
高速な実行とパラメータ効率により、高忠実度後部近似が可能となる。
論文 参考訳(メタデータ) (2024-06-20T23:27:41Z) - On the Trade-Off between Stability and Representational Capacity in
Graph Neural Networks [22.751509906413943]
20以上のソリューションを統合する汎用GNNフレームワークであるEdgeNetの安定性について検討する。
異なるEdgeNetカテゴリの安定性への影響を調べた結果,パラメータ空間における自由度が低いGNNの方が,表現能力の低いGNNの方がより安定であることが判明した。
論文 参考訳(メタデータ) (2023-12-04T22:07:17Z) - Stability of Aggregation Graph Neural Networks [153.70485149740608]
グラフの摂動を考慮したアグリゲーショングラフニューラルネットワーク(Agg-GNN)の安定性特性について検討した。
安定性境界は各ノードに作用するCNNの第1層におけるフィルタの特性によって定義される。
また、Agg-GNNでは、写像演算子の選択性は、CNNステージの第1層においてのみフィルタの特性に結びついていると結論付けている。
論文 参考訳(メタデータ) (2022-07-08T03:54:52Z) - Stability of Neural Networks on Manifolds to Relative Perturbations [118.84154142918214]
グラフニューラルネットワーク(GNN)は多くの実践シナリオにおいて素晴らしいパフォーマンスを示している。
GNNは大規模グラフ上でうまくスケールすることができるが、これは既存の安定性がノード数とともに増加するという事実に矛盾する。
論文 参考訳(メタデータ) (2021-10-10T04:37:19Z) - Is Homophily a Necessity for Graph Neural Networks? [50.959340355849896]
グラフニューラルネットワーク(GNN)は、多数のグラフベースの機械学習タスクに適した学習表現において大きな進歩を見せている。
GNNはホモフィリーな仮定によりうまく機能し、異種ノードが接続する異種グラフへの一般化に失敗したと広く信じられている。
最近の研究は、このような不均一な制限を克服する新しいアーキテクチャを設計し、ベースライン性能の低さと、この概念の証拠として、いくつかの異種グラフベンチマークデータセットに対するアーキテクチャの改善を引用している。
我々の実験では、標準グラフ畳み込みネットワーク(GCN)が実際よりも優れた性能を実現できることを実証的に見出した。
論文 参考訳(メタデータ) (2021-06-11T02:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。