論文の概要: mHC-GNN: Manifold-Constrained Hyper-Connections for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2601.02451v1
- Date: Mon, 05 Jan 2026 17:25:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.679299
- Title: mHC-GNN: Manifold-Constrained Hyper-Connections for Graph Neural Networks
- Title(参考訳): mHC-GNN:グラフニューラルネットワークのためのマニフォールド制約ハイパーコネクション
- Authors: Subhankar Mishra,
- Abstract要約: 我々は最近Transformersのために提案されたManifold-Constrained Hyper-Connection (mhc)citepxie2025mhcをグラフニューラルネットワークに適用する。
提案手法であるmHC-GNNは,ノード表現を$n$並列ストリームに拡張し,ストリーム混合行列をBirkhoffポリトープに制約する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) suffer from over-smoothing in deep architectures and expressiveness bounded by the 1-Weisfeiler-Leman (1-WL) test. We adapt Manifold-Constrained Hyper-Connections (\mhc)~\citep{xie2025mhc}, recently proposed for Transformers, to graph neural networks. Our method, mHC-GNN, expands node representations across $n$ parallel streams and constrains stream-mixing matrices to the Birkhoff polytope via Sinkhorn-Knopp normalization. We prove that mHC-GNN exhibits exponentially slower over-smoothing (rate $(1-γ)^{L/n}$ vs.\ $(1-γ)^L$) and can distinguish graphs beyond 1-WL. Experiments on 10 datasets with 4 GNN architectures show consistent improvements. Depth experiments from 2 to 128 layers reveal that standard GNNs collapse to near-random performance beyond 16 layers, while mHC-GNN maintains over 74\% accuracy even at 128 layers, with improvements exceeding 50 percentage points at extreme depths. Ablations confirm that the manifold constraint is essential: removing it causes up to 82\% performance degradation. Code is available at \href{https://github.com/smlab-niser/mhc-gnn}{https://github.com/smlab-niser/mhc-gnn}
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、1-Weisfeiler-Leman(1-WL)テストで境界付けられた深いアーキテクチャと表現性に悩まされている。
我々は最近Transformersのために提案されたManifold-Constrained Hyper-Connections (\mhc)~\citep{xie2025mhc} をグラフニューラルネットワークに適用する。
我々の手法であるmHC-GNNは、Sinkhorn-Knopp正規化により、$n$並列ストリームのノード表現を拡張し、ストリーム混合行列をBirkhoffポリトープに制約する。
我々はmHC-GNNが指数的に遅い過平滑化(rate $(1-γ)^{L/n}$ vs。
\ $(1-γ)^L$) であり、グラフを 1-WL を超えて区別することができる。
4つのGNNアーキテクチャを持つ10のデータセットの実験は、一貫した改善を示している。
2層から128層までの深さ実験では、標準のGNNが16層を超えてほぼランダムな性能に崩壊するのに対し、mHC-GNNは128層でも74\%以上の精度を維持し、極端な深さでは50ポイント以上改善されている。
アブレーションにより、多様体の制約は必須であることが確認される。
コードは \href{https://github.com/smlab-niser/mhc-gnn}{https://github.com/smlab-niser/mhc-gnn} で入手できる。
関連論文リスト
- Graph Neural Networks vs Convolutional Neural Networks for Graph Domination Number Prediction [0.0]
本稿では,グラフのエンフェドミネーション数,支配集合の最小サイズを近似する機械学習手法について検討する。
我々は、隣接行列表現で動作する畳み込みニューラルネットワーク(CNN)と、グラフ構造からメッセージパッシングを通じて直接学習するグラフニューラルネットワーク(GNN)の2つのニューラルネットワークパラダイムを比較した。
どちらのモデルも正確な解法よりも大幅にスピードアップし、GNNは200ドル以上の加速を実現し、ほぼ完全な忠実さを維持している。
論文 参考訳(メタデータ) (2025-11-22T18:34:32Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Improving Graph Neural Networks with Learnable Propagation Operators [9.50726756006467]
グラフニューラルネットワーク(GNN)は、伝播演算子で制限される。
一部のGNNは過密に苦しんでおり、その深さを制限している。
CNNは多様な伝搬フィルタを学習でき、過剰なスムーシングのような現象は典型的にはCNNでは見られない。
論文 参考訳(メタデータ) (2022-10-31T11:08:04Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。