論文の概要: Implicit Hypergraph Neural Network
- arxiv url: http://arxiv.org/abs/2508.14101v1
- Date: Sat, 16 Aug 2025 16:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.187751
- Title: Implicit Hypergraph Neural Network
- Title(参考訳): インプシットハイパーグラフニューラルネットワーク
- Authors: Akash Choudhuri, Yongjian Zhong, Bijaya Adhikari,
- Abstract要約: 我々は,ハイパーグラフニューラルネットワークが長距離依存を捉えるためにより多くの情報を集めると,予測能力を失うことを示す。
Inlicit Hypergraph Neural Network (IHNN)を提案する。これはノードとハイパーエッジの両方の固定点表現を共同で学習する新しいフレームワークである。
- 参考スコア(独自算出の注目度): 6.540106879453241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraphs offer a generalized framework for capturing high-order relationships between entities and have been widely applied in various domains, including healthcare, social networks, and bioinformatics. Hypergraph neural networks, which rely on message-passing between nodes over hyperedges to learn latent representations, have emerged as the method of choice for predictive tasks in many of these domains. These approaches typically perform only a small number of message-passing rounds to learn the representations, which they then utilize for predictions. The small number of message-passing rounds comes at a cost, as the representations only capture local information and forego long-range high-order dependencies. However, as we demonstrate, blindly increasing the message-passing rounds to capture long-range dependency also degrades the performance of hyper-graph neural networks. Recent works have demonstrated that implicit graph neural networks capture long-range dependencies in standard graphs while maintaining performance. Despite their popularity, prior work has not studied long-range dependency issues on hypergraph neural networks. Here, we first demonstrate that existing hypergraph neural networks lose predictive power when aggregating more information to capture long-range dependency. We then propose Implicit Hypergraph Neural Network (IHNN), a novel framework that jointly learns fixed-point representations for both nodes and hyperedges in an end-to-end manner to alleviate this issue. Leveraging implicit differentiation, we introduce a tractable projected gradient descent approach to train the model efficiently. Extensive experiments on real-world hypergraphs for node classification demonstrate that IHNN outperforms the closest prior works in most settings, establishing a new state-of-the-art in hypergraph learning.
- Abstract(参考訳): ハイパーグラフは、エンティティ間の高次関係をキャプチャするための一般化されたフレームワークを提供し、医療、ソーシャルネットワーク、バイオインフォマティクスなど様々な分野に広く適用されてきた。
ハイパーグラフニューラルネットワークは、ハイパーエッジ上のノード間のメッセージパッシングに頼って潜在表現を学習し、これらの領域の多くにおいて予測タスクの選択方法として登場した。
これらのアプローチは通常、表現を学ぶために少数のメッセージパスラウンドしか実行せず、それを予測に利用する。
メッセージパッシングラウンドの少ないラウンドは、ローカル情報のみをキャプチャし、長期にわたる高次依存関係を前もって実行するため、コストがかかる。
しかし、私たちが示すように、長距離依存を捉えるためにメッセージパッシングラウンドを盲目的に増やすことは、ハイパーグラフニューラルネットワークの性能を低下させる。
最近の研究では、暗黙のグラフニューラルネットワークが、パフォーマンスを維持しながら標準グラフの長距離依存性をキャプチャしていることが示されている。
その人気にもかかわらず、先行研究はハイパーグラフニューラルネットワークにおける長距離依存の問題について研究していない。
ここでは、既存のハイパーグラフニューラルネットワークが、長距離依存を捉えるためにより多くの情報を集めると、予測能力を失うことを最初に実証する。
次に、この問題を軽減するために、ノードとハイパーエッジの固定点表現をエンドツーエンドで共同で学習する新しいフレームワークであるImplicit Hypergraph Neural Network (IHNN)を提案する。
暗黙的な微分を生かして、モデルを効率的に訓練するために、トラクタブルな射影勾配降下法を導入する。
ノード分類のための実世界のハイパーグラフに関する大規模な実験は、IHNNがほとんどの設定において最も近い先行研究より優れており、ハイパーグラフ学習における新しい最先端の技術を確立していることを示している。
関連論文リスト
- Multi-View Subgraph Neural Networks: Self-Supervised Learning with Scarce Labeled Data [24.628203785306233]
長距離依存関係を扱うためのマルチビューサブグラフニューラルネットワーク(Muse)と呼ばれる新しい学習フレームワークを提案する。
部分グラフの2つのビューを融合させることで、学習された表現はグラフの位相的性質を広く保存することができる。
実験の結果,Museは限定ラベル付きデータを用いたノード分類タスクにおいて,代替手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-19T01:36:50Z) - Training-Free Message Passing for Learning on Hypergraphs [35.35391968349657]
ハイパーグラフニューラルネットワーク(HNN)は、メッセージパッシングによってハイパーグラフ構造を効果的に利用し、ノードの特徴を生成する。
モデル学習段階からハイパーグラフ構造情報の利用を分離する手法を提案する。
これにより、TF-MP-Moduleと呼ばれる新しいトレーニング不要のメッセージパッシングモジュールが作成され、データ前処理の段階でプリ計算される。
論文 参考訳(メタデータ) (2024-02-08T11:10:39Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - MGNNI: Multiscale Graph Neural Networks with Implicit Layers [53.75421430520501]
暗黙グラフニューラルネットワーク(GNN)は、基礎となるグラフの長距離依存性をキャプチャするために提案されている。
暗黙的GNNの2つの弱点は、長距離依存を捉えるための限られた有効範囲による制約付き表現性と、複数の解像度でグラフ上のマルチスケール情報をキャプチャする能力の欠如である。
グラフ上のマルチスケール構造をモデル化できる暗黙の層(MGNNI)を持つマルチスケールグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-15T18:18:55Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Equivariant Hypergraph Neural Networks [15.096429849049953]
ハイパーグラフ学習の最近のアプローチは、メッセージパッシングに基づくグラフニューラルネットワークを拡張している。
EHNN(Equivariant Hypergraph Neural Network)は,一般ハイパーグラフ学習のための最大表現型同変層を実現するための最初の試みである。
我々は、合成kエッジ識別、半教師付き分類、視覚的キーポイントマッチングなど、様々なハイパーグラフ学習問題において、それらの能力を実証し、強いメッセージパッシングベースラインよりも優れた性能を報告した。
論文 参考訳(メタデータ) (2022-08-22T16:28:38Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。