論文の概要: Implicit Hypergraph Neural Networks: A Stable Framework for Higher-Order Relational Learning with Provable Guarantees
- arxiv url: http://arxiv.org/abs/2508.09427v1
- Date: Wed, 13 Aug 2025 02:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.725555
- Title: Implicit Hypergraph Neural Networks: A Stable Framework for Higher-Order Relational Learning with Provable Guarantees
- Title(参考訳): Implicit Hypergraph Neural Networks: 確率的保証付き高次関係学習のための安定フレームワーク
- Authors: Xiaoyu Li, Guangyu Tang, Jiaojiao Jiang,
- Abstract要約: Indicit Hypergraph Neural Networks (IHGNN)を導入し、非線形不動点方程式の解として表現を計算する。
IHGNNは、正確性と堅牢性の両方において、強力な従来のグラフ/ハイパーグラフニューラルネットワークベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 8.5183483099116
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many real-world interactions are group-based rather than pairwise such as papers with multiple co-authors and users jointly engaging with items. Hypergraph neural networks have shown great promise at modeling higher-order relations, but their reliance on a fixed number of explicit message-passing layers limits long-range dependency capture and can destabilize training as depth grows. In this work, we introduce Implicit Hypergraph Neural Networks (IHGNN), which bring the implicit equilibrium formulation to hypergraphs: instead of stacking layers, IHGNN computes representations as the solution to a nonlinear fixed-point equation, enabling stable and efficient global propagation across hyperedges without deep architectures. We develop a well-posed training scheme with provable convergence, analyze the oversmoothing conditions and expressivity of the model, and derive a transductive generalization bound on hypergraphs. We further present an implicit-gradient training procedure coupled with a projection-based stabilization strategy. Extensive experiments on citation benchmarks show that IHGNN consistently outperforms strong traditional graph/hypergraph neural network baselines in both accuracy and robustness. Empirically, IHGNN is resilient to random initialization and hyperparameter variation, highlighting its strong generalization and practical value for higher-order relational learning.
- Abstract(参考訳): 多くの実世界のインタラクションは、複数の共著者とユーザが共同でアイテムを扱うなど、ペアではなくグループベースである。
ハイパーグラフニューラルネットワークは、高次の関係をモデル化する上で非常に有望であるが、固定数の明示的なメッセージパス層に依存しているため、長距離依存性のキャプチャが制限され、深さが大きくなるにつれてトレーニングを不安定にすることができる。
本研究では,階層を積み重ねる代わりに,非線型固定点方程式の解として表現を計算し,深いアーキテクチャを伴わないハイパーエッジ間の安定かつ効率的なグローバルな伝播を可能にする。
提案手法は,証明可能な収束性を持ち,モデルの過度な平滑化条件と表現性を解析し,ハイパーグラフに束縛された帰納的一般化を導出する。
さらに、プロジェクションに基づく安定化戦略と合わせて、暗黙の段階的なトレーニング手順を提案する。
引用ベンチマークの大規模な実験により、IHGNNは、精度と堅牢性の両方において、強い従来のグラフ/ハイパーグラフニューラルネットワークのベースラインを一貫して上回っていることが示されている。
経験的に、IHGNNはランダム初期化とハイパーパラメータ変動に耐性があり、高次関係学習の強力な一般化と実践的価値を強調している。
関連論文リスト
- SoftHGNN: Soft Hypergraph Neural Networks for General Visual Recognition [19.88933136559363]
ハイパーグラフは高次相互作用をモデル化することによって従来のグラフを拡張する。
既存のハイパーグラフニューラルネットワークは通常、静的およびハードなハイパーエッジ割り当てに依存している。
本稿では,ハイパーグラフ計算の方法論を拡張したソフトハイパーグラフニューラルネットワーク(SoftHGNN)を提案する。
論文 参考訳(メタデータ) (2025-05-21T10:01:30Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。