論文の概要: Training-Free Message Passing for Learning on Hypergraphs
- arxiv url: http://arxiv.org/abs/2402.05569v4
- Date: Wed, 02 Oct 2024 12:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-03 15:19:15.020182
- Title: Training-Free Message Passing for Learning on Hypergraphs
- Title(参考訳): ハイパーグラフによる学習のための学習自由メッセージパッシング
- Authors: Bohan Tang, Zexi Liu, Keyue Jiang, Siheng Chen, Xiaowen Dong,
- Abstract要約: ハイパーグラフニューラルネットワーク(HNN)は、メッセージパッシングによってハイパーグラフ構造を効果的に利用し、ノードの特徴を生成する。
モデル学習段階からハイパーグラフ構造情報の利用を分離する手法を提案する。
これにより、TF-MP-Moduleと呼ばれる新しいトレーニング不要のメッセージパッシングモジュールが作成され、データ前処理の段階でプリ計算される。
- 参考スコア(独自算出の注目度): 35.35391968349657
- License:
- Abstract: Hypergraphs are crucial for modelling higher-order interactions in real-world data. Hypergraph neural networks (HNNs) effectively utilise these structures by message passing to generate informative node features for various downstream tasks like node classification. However, the message passing module in existing HNNs typically requires a computationally intensive training process, which limits their practical use. To tackle this challenge, we propose an alternative approach by decoupling the usage of hypergraph structural information from the model learning stage. This leads to a novel training-free message passing module, named TF-MP-Module, which can be precomputed in the data preprocessing stage, thereby reducing the computational burden. We refer to the hypergraph neural network equipped with our TF-MP-Module as TF-HNN. We theoretically support the efficiency and effectiveness of TF-HNN by showing that: 1) It is more training-efficient compared to existing HNNs; 2) It utilises as much information as existing HNNs for node feature generation; and 3) It is robust against the oversmoothing issue while using long-range interactions. Experiments based on seven real-world hypergraph benchmarks in node classification and hyperlink prediction show that, compared to state-of-the-art HNNs, TF-HNN exhibits both competitive performance and superior training efficiency. Specifically, on the large-scale benchmark, Trivago, TF-HNN outperforms the node classification accuracy of the best baseline by 10% with just 1% of the training time of that baseline.
- Abstract(参考訳): ハイパーグラフは、現実世界のデータにおける高次相互作用のモデル化に不可欠である。
ハイパーグラフニューラルネットワーク(HNN)は、これらの構造をメッセージパッシングによって効果的に利用し、ノード分類のような様々な下流タスクのための情報ノード機能を生成する。
しかし、既存のHNNのメッセージパッシングモジュールは通常、計算集約的なトレーニングプロセスを必要とし、実際の使用を制限する。
この課題に対処するため,モデル学習段階からハイパーグラフ構造情報の利用を分離する手法を提案する。
これにより、TF-MP-Moduleと呼ばれる新しいトレーニング不要メッセージパッシングモジュールがデータ前処理の段階でプリ計算され、計算負担が軽減される。
本稿では TF-MP-Module を備えたハイパーグラフニューラルネットワークを TF-HNN と呼ぶ。
TF-HNNの効率と有効性を理論的に支持する。
1)既存のHNNに比べて訓練効率が高い。
2)ノードの特徴生成に既存のHNNと同じくらいの情報を利用する。
3)長距離相互作用を用いた場合,過度にスムースな問題に対して頑健である。
ノード分類とハイパーリンク予測における7つの実世界のハイパーグラフベンチマークに基づく実験は、最先端のHNNと比較して、TF-HNNは競合性能と優れたトレーニング効率の両方を示していることを示している。
具体的には、大規模なベンチマークであるTrivagoにおいて、TF-HNNは、そのベースラインのトレーニング時間のわずか1%で、最高のベースラインのノード分類精度を10%向上させる。
関連論文リスト
- Molecular Hypergraph Neural Networks [1.4559839293730863]
グラフニューラルネットワーク(GNN)は、様々な化学関連タスクで有望なパフォーマンスを示している。
分子ハイパーグラフを導入し、有機半導体の光電子特性を予測する分子ハイパーグラフニューラルネットワーク(MHNN)を提案する。
MHNNは、OPV、OCELOTv1、PCQM4Mv2データセットのほとんどのタスクにおけるベースラインモデルよりも優れている。
論文 参考訳(メタデータ) (2023-12-20T15:56:40Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Online Cross-Layer Knowledge Distillation on Graph Neural Networks with
Deep Supervision [6.8080936803807734]
グラフニューラルネットワーク(GNN)は、学術と産業の両方で最も人気のある研究トピックの1つとなっている。
大規模なデータセットは、限られたリソースを持つエッジデバイスにGNNをデプロイする上で、大きな課題となっている。
本稿ではAlignahead++と呼ばれる新しいオンライン知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-25T03:21:20Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix [0.0]
分類性能を向上させるため,DNNのトレーニングと構造を変更した。
畳み込みニューラルネットワーク(CNN)の最後の層に続く最小距離ネットワーク(MDN)が分類器として使用される。
異なる領域では、ノード数が少ないDivFEを使用することでより高い分類性能が得られたことが観察されている。
論文 参考訳(メタデータ) (2021-03-31T18:06:11Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。