論文の概要: Hypergraph Node Representation Learning with One-Stage Message Passing
- arxiv url: http://arxiv.org/abs/2312.00336v1
- Date: Fri, 1 Dec 2023 04:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:38:32.443104
- Title: Hypergraph Node Representation Learning with One-Stage Message Passing
- Title(参考訳): ワンステップメッセージパッシングを用いたハイパーグラフノード表現学習
- Authors: Shilin Qu, Weiqing Wang, Yuan-Fang Li, Xin Zhou, Fajie Yuan
- Abstract要約: ハイパーグラフのグローバルおよびローカル情報伝搬をモデル化するための,新しいワンステージメッセージパッシングパラダイムを提案する。
我々はこのパラダイムをハイパーグラフノード表現学習のためのトランスフォーマーベースのフレームワークであるHGraphormerに統合する。
- 参考スコア(独自算出の注目度): 28.311325846217574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraphs as an expressive and general structure have attracted
considerable attention from various research domains. Most existing hypergraph
node representation learning techniques are based on graph neural networks, and
thus adopt the two-stage message passing paradigm (i.e. node -> hyperedge ->
node). This paradigm only focuses on local information propagation and does not
effectively take into account global information, resulting in less optimal
representations. Our theoretical analysis of representative two-stage message
passing methods shows that, mathematically, they model different ways of local
message passing through hyperedges, and can be unified into one-stage message
passing (i.e. node -> node). However, they still only model local information.
Motivated by this theoretical analysis, we propose a novel one-stage message
passing paradigm to model both global and local information propagation for
hypergraphs. We integrate this paradigm into HGraphormer, a Transformer-based
framework for hypergraph node representation learning. HGraphormer injects the
hypergraph structure information (local information) into Transformers (global
information) by combining the attention matrix and hypergraph Laplacian.
Extensive experiments demonstrate that HGraphormer outperforms recent
hypergraph learning methods on five representative benchmark datasets on the
semi-supervised hypernode classification task, setting new state-of-the-art
performance, with accuracy improvements between 2.52% and 6.70%. Our code and
datasets are available.
- Abstract(参考訳): 表現的かつ一般的な構造としてのハイパーグラフは、様々な研究領域から大きな注目を集めている。
既存のハイパーグラフノード表現学習技術のほとんどはグラフニューラルネットワークに基づいており、2段階のメッセージパッシングパラダイム(node -> hyperedge -> node)を採用している。
このパラダイムは局所的な情報伝達のみに焦点を当て、世界的情報を効果的に考慮しないため、最適な表現は少ない。
代表的2段階のメッセージパッシング法の理論解析は, 数学的には, 局所的なメッセージパッシングの異なる手法をモデル化し, 一段階のメッセージパッシング(ノード ->ノード)に統一可能であることを示す。
しかし、ローカル情報のみをモデル化している。
この理論解析により,ハイパーグラフのグローバルおよびローカル情報伝搬をモデル化する一段階メッセージパッシングパラダイムを提案する。
我々はこのパラダイムをハイパーグラフノード表現学習のためのトランスフォーマーベースのフレームワークであるHGraphormerに統合する。
HGraphormerは、注目行列とハイパーグラフラプラシアンを組み合わせることで、ハイパーグラフ構造情報(ローカル情報)をトランスフォーマー(グローバル情報)に注入する。
HGraphormerは、半教師付きハイパーノード分類タスクで5つの代表的なベンチマークデータセット上で、最近のハイパーグラフ学習方法より優れており、新しい最先端のパフォーマンスが設定され、精度が2.52%から6.70%向上した。
コードとデータセットが利用可能です。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - DualHGNN: A Dual Hypergraph Neural Network for Semi-Supervised Node
Classification based on Multi-View Learning and Density Awareness [3.698434507617248]
グラフに基づく半教師付きノード分類は、研究価値と重要性の高い多くのアプリケーションにおいて最先端のアプローチであることが示されている。
本稿では、ハイパーグラフ構造学習とハイパーグラフ表現学習を同時に統合した新しいデュアル接続モデルであるデュアルハイパーグラフニューラルネットワーク(DualHGNN)を提案する。
論文 参考訳(メタデータ) (2023-06-07T07:40:04Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Message Passing Neural Networks for Hypergraphs [6.999112784624749]
本稿では,ハイパーグラフ構造データを処理可能なメッセージパッシングに基づく,最初のグラフニューラルネットワークを提案する。
提案モデルでは,ハイパーグラフのためのニューラルネットワークモデルの設計空間が定義され,既存のハイパーグラフモデルが一般化されることを示す。
論文 参考訳(メタデータ) (2022-03-31T12:38:22Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - HyperSAGE: Generalizing Inductive Representation Learning on Hypergraphs [24.737560790401314]
2段階のニューラルメッセージパッシング戦略を用いて、ハイパーグラフを介して情報を正確かつ効率的に伝播する新しいハイパーグラフ学習フレームワークHyperSAGEを提案する。
本稿では,HyperSAGEが代表的ベンチマークデータセット上で最先端のハイパーグラフ学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-09T13:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。