論文の概要: Hypergraph Neural Sheaf Diffusion: A Symmetric Simplicial Set Framework for Higher-Order Learning
- arxiv url: http://arxiv.org/abs/2505.05702v1
- Date: Fri, 09 May 2025 00:26:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.110636
- Title: Hypergraph Neural Sheaf Diffusion: A Symmetric Simplicial Set Framework for Higher-Order Learning
- Title(参考訳): Hypergraph Neural Sheaf Diffusion:高次学習のための対称的単純集合フレームワーク
- Authors: Seongjin Choi, Gahee Kim, Yong-Geun Oh,
- Abstract要約: 本稿では,HNSD(Hypergraph Neural Sheaf Diffusion)をハイパーグラフに導入する。
HNSD は対称単純集合上の正規化次数 0 のラプラシアンを通して作用し、向きのあいまいさと隣接の間隔を解消する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The absence of intrinsic adjacency relations and orientation systems in hypergraphs creates fundamental challenges for constructing sheaf Laplacians of arbitrary degrees. We resolve these limitations through symmetric simplicial sets derived directly from hypergraphs, which encode all possible oriented subrelations within each hyperedge as ordered tuples. This construction canonically defines adjacency via facet maps while inherently preserving hyperedge provenance. We establish that the normalized degree zero sheaf Laplacian on our induced symmetric simplicial set reduces exactly to the traditional graph normalized sheaf Laplacian when restricted to graphs, validating its mathematical consistency with prior graph-based sheaf theory. Furthermore, the induced structure preserves all structural information from the original hypergraph, ensuring that every multi-way relational detail is faithfully retained. Leveraging this framework, we introduce Hypergraph Neural Sheaf Diffusion (HNSD), the first principled extension of Neural Sheaf Diffusion (NSD) to hypergraphs. HNSD operates via normalized degree zero sheaf Laplacians over symmetric simplicial sets, resolving orientation ambiguity and adjacency sparsity inherent to hypergraph learning. Experimental evaluations demonstrate HNSD's competitive performance across established benchmarks.
- Abstract(参考訳): ハイパーグラフにおける固有の隣接関係や配向系が存在しないことは、任意の次数の層ラプラシアンを構成するための根本的な課題を生み出している。
これらの制限は、ハイパーグラフから直接導出される対称単純集合によって解決され、これは、順序付けられたタプルとして各ハイパーエッジ内のすべての有向部分列をエンコードする。
この構成は、本質的にハイパーエッジの証明を保ちながら、ファセット写像を介して隣接性を定義する。
我々は、誘導対称単純集合上の正規化次数 0 のラプラシアンが、グラフに制限されたとき、従来のグラフ正規化のラプラシアンに正確に還元されることを確立し、その数学的整合性は、従来のグラフベースのリーフ理論と検証する。
さらに、誘導された構造は、元のハイパーグラフからの全ての構造情報を保存し、すべてのマルチウェイ関係の詳細が忠実に保持されることを保証する。
この枠組みを活用することで、ハイパーグラフへの第1原理的拡張であるHypergraph Neural Sheaf Diffusion (HNSD)を導入する。
HNSDは対称単純集合上の正規化次数 0 のラプラシアンを介して動作し、超グラフ学習に固有の配向の曖昧さと隣接の間隔を解消する。
実験的評価は、確立されたベンチマーク間でのHNSDの競合性能を示す。
関連論文リスト
- Lower Ricci Curvature for Hypergraphs [3.9965784551765697]
我々は,解釈可能性と効率のバランスを原則とする閉形式で定義された新しい曲率指標であるハイパーグラフ下曲率(HLRC)を導入する。
HLRCは、コミュニティ内のハイパーエッジの識別、潜在意味ラベルの発見、時間的ダイナミクスの追跡、グローバル構造に基づくハイパーグラフの堅牢なクラスタリングのサポートなど、有意義な高次の組織を一貫して明らかにしている。
論文 参考訳(メタデータ) (2025-06-04T13:32:09Z) - Scalable Hypergraph Structure Learning with Diverse Smoothness Priors [7.559720049837459]
そこで本研究では,前処理の滑らかさに基づいて時系列信号からハイパーグラフを復元するハイパーグラフ学習手法を提案する。
提案手法は,Smoothness (HSLS) を用いたハイパーグラフ構造学習 (Hypergraph Structure Learning) と呼ばれ,先行研究の限界に対処する。
我々の手法はますます複雑なネットワーク構造においてスケーラブルになる。
論文 参考訳(メタデータ) (2025-04-04T16:47:30Z) - A Signed Graph Approach to Understanding and Mitigating Oversmoothing in GNNs [54.62268052283014]
署名されたグラフの枠組みに基づく統一的な理論的視点を示す。
既存の戦略の多くは、メッセージパッシングを変えて過度な操作に抵抗する負のエッジを暗黙的に導入している。
本稿では,ラベルや特徴の類似性に基づいて署名されたエッジを割り当てるプラグイン・アンド・プレイ方式であるStructure Balanced Propagation (SBP)を提案する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Self-organization Preserved Graph Structure Learning with Principle of
Relevant Information [72.83485174169027]
PRI-GSLは、自己組織化を特定し、隠された構造を明らかにするグラフ構造学習フレームワークである。
PRI-GSLは、フォン・ノイマンエントロピーと量子ジェンセン=シャノンの発散によって定量化された最も関連性が最も低い冗長な情報を含む構造を学ぶ。
論文 参考訳(メタデータ) (2022-12-30T16:02:02Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - Learning over Families of Sets -- Hypergraph Representation Learning for
Higher Order Tasks [12.28143554382742]
可変サイズのハイパーエッジの表現を実証的に表現するためのハイパーグラフニューラルネットワークを開発した。
複数の実世界のハイパーグラフデータセットのパフォーマンスを評価し、最新モデルよりも一貫性のある大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-01-19T18:37:50Z) - Semi-supervised Hypergraph Node Classification on Hypergraph Line
Expansion [7.933465724913661]
本稿では,ハイパーグラフ学習のためのEmphline expansion (LE) という新しいハイパーグラフの定式化を提案する。
提案手法は,既存のグラフ学習アルゴリズムを高次構造に適合させる。
提案手法を5つのハイパーグラフデータセット上で評価し,提案手法がSOTAベースラインを有意差で上回ることを示す。
論文 参考訳(メタデータ) (2020-05-11T03:02:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。