論文の概要: Hypergraph Contrastive Learning for both Homophilic and Heterophilic Hypergraphs
- arxiv url: http://arxiv.org/abs/2511.18783v1
- Date: Mon, 24 Nov 2025 05:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.034956
- Title: Hypergraph Contrastive Learning for both Homophilic and Heterophilic Hypergraphs
- Title(参考訳): ヘテロ親和性ハイパーグラフにおけるハイパーグラフのコントラスト学習
- Authors: Renchu Guan, Xuyang Li, Yachao Zhang, Wei Pang, Fausto Giunchiglia, Ximing Li, Yonghao Liu, Xiaoyue Feng,
- Abstract要約: ハイパーグラフニューラルネットワーク(HNN)は複雑な高次関係を捉えるために広く利用されている。
我々は,新しい教師なしのtextbfHypergraph ctextbfONtrastive Learning framework である textbfHONOR を提案する。
- 参考スコア(独自算出の注目度): 36.44792866509702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hypergraphs, as a generalization of traditional graphs, naturally capture high-order relationships. In recent years, hypergraph neural networks (HNNs) have been widely used to capture complex high-order relationships. However, most existing hypergraph neural network methods inherently rely on the homophily assumption, which often does not hold in real-world scenarios that exhibit significant heterophilic structures. To address this limitation, we propose \textbf{HONOR}, a novel unsupervised \textbf{H}ypergraph c\textbf{ON}trastive learning framework suitable for both hom\textbf{O}philic and hete\textbf{R}ophilic hypergraphs. Specifically, HONOR explicitly models the heterophilic relationships between hyperedges and nodes through two complementary mechanisms: a prompt-based hyperedge feature construction strategy that maintains global semantic consistency while suppressing local noise, and an adaptive attention aggregation module that dynamically captures the diverse local contributions of nodes to hyperedges. Combined with high-pass filtering, these designs enable HONOR to fully exploit heterophilic connection patterns, yielding more discriminative and robust node and hyperedge representations. Theoretically, we demonstrate the superior generalization ability and robustness of HONOR. Empirically, extensive experiments further validate that HONOR consistently outperforms state-of-the-art baselines under both homophilic and heterophilic datasets.
- Abstract(参考訳): ハイパーグラフは、伝統的なグラフの一般化として、自然に高次関係を捉えている。
近年、ハイパーグラフニューラルネットワーク(HNN)は複雑な高次関係を捉えるために広く利用されている。
しかし、既存のハイパーグラフニューラルネットワークの手法の多くは本質的にホモフィリーの仮定に依存しており、しばしば重要なヘテロ親和性構造を示す現実のシナリオでは成り立たない。
この制限に対処するために、新しい教師なしの \textbf{H}ypergraph c\textbf{ON}trastive learning framework を提案し、hom\textbf{O}philic と hete\textbf{R}ophilic hypergraph の両方に適合する。
具体的には、HONORは、局所ノイズを抑えながらグローバルな意味的一貫性を維持するプロンプトベースのハイパーエッジ機能構築戦略と、ハイパーエッジへの多様なローカルコントリビューションを動的にキャプチャするアダプティブアテンションアグリゲーションアグリゲーションモジュールという、2つの相補的なメカニズムを通じて、ハイパーエッジとノードの間のヘテロ親和性関係を明示的にモデル化する。
ハイパスフィルタリングと組み合わせることで、HONORは異種接続パターンを完全に活用し、より差別的で堅牢なノードとハイパーエッジ表現が得られる。
理論的には、HONORの優れた一般化能力とロバスト性を示す。
実証的な実験により、HONORは相同性データセットとヘテロ親和性データセットの両方において、最先端のベースラインを一貫して上回っていることが証明された。
関連論文リスト
- Implicit Hypergraph Neural Networks: A Stable Framework for Higher-Order Relational Learning with Provable Guarantees [8.5183483099116]
Indicit Hypergraph Neural Networks (IHGNN)を導入し、非線形不動点方程式の解として表現を計算する。
IHGNNは、正確性と堅牢性の両方において、強力な従来のグラフ/ハイパーグラフニューラルネットワークベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-08-13T02:06:29Z) - SPHINX: Structural Prediction using Hypergraph Inference Network [19.853413818941608]
本稿では,非教師付き手法で遅延ハイパーグラフ構造を推論するモデルであるハイパーグラフ推論ネットワーク(SPHINX)を用いた構造予測を提案する。
最近の$k$サブセットサンプリングの進歩は、離散ハイパーグラフ構造を生成するのに適したツールであることを示す。
結果として得られるモデルは、現代のハイパーグラフニューラルネットワークに必要な高次構造を生成することができる。
論文 参考訳(メタデータ) (2024-10-04T07:49:57Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。