論文の概要: Directional Sheaf Hypergraph Networks: Unifying Learning on Directed and Undirected Hypergraphs
- arxiv url: http://arxiv.org/abs/2510.04727v1
- Date: Mon, 06 Oct 2025 11:46:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.837806
- Title: Directional Sheaf Hypergraph Networks: Unifying Learning on Directed and Undirected Hypergraphs
- Title(参考訳): Directional Sheaf Hypergraph Networks: Directed and Undirected Hypergraphsにおける学習の統一
- Authors: Emanuele Mule, Stefano Fiorini, Antonio Purificato, Federico Siciliano, Stefano Coniglio, Fabrizio Silvestri,
- Abstract要約: 本稿では,非対称関係の原理的処理をハイパーグラフ内で行うことで,せん断理論を統合するフレームワークである Directional Sheaf Hypergraph Networks (DSHN) を紹介する。
DSHNは2%から20%までの相対的精度向上を実現し、ハイパーグラフにおける方向性の原則的処理とシーブの表現力を組み合わせることにより、性能が大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 14.396507207496507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraphs provide a natural way to represent higher-order interactions among multiple entities. While undirected hypergraphs have been extensively studied, the case of directed hypergraphs, which can model oriented group interactions, remains largely under-explored despite its relevance for many applications. Recent approaches in this direction often exhibit an implicit bias toward homophily, which limits their effectiveness in heterophilic settings. Rooted in the algebraic topology notion of Cellular Sheaves, Sheaf Neural Networks (SNNs) were introduced as an effective solution to circumvent such a drawback. While a generalization to hypergraphs is known, it is only suitable for undirected hypergraphs, failing to tackle the directed case. In this work, we introduce Directional Sheaf Hypergraph Networks (DSHN), a framework integrating sheaf theory with a principled treatment of asymmetric relations within a hypergraph. From it, we construct the Directed Sheaf Hypergraph Laplacian, a complex-valued operator by which we unify and generalize many existing Laplacian matrices proposed in the graph- and hypergraph-learning literature. Across 7 real-world datasets and against 13 baselines, DSHN achieves relative accuracy gains from 2% up to 20%, showing how a principled treatment of directionality in hypergraphs, combined with the expressive power of sheaves, can substantially improve performance.
- Abstract(参考訳): ハイパーグラフは、複数のエンティティ間の高次相互作用を表現する自然な方法を提供する。
非指向性ハイパーグラフは広く研究されているが、指向性グループ相互作用をモデル化できる指向性ハイパーグラフの場合、多くのアプリケーションに関連があるにもかかわらず、ほとんど探索されていない。
この方向の最近のアプローチは、しばしばホモフィリーに対する暗黙の偏見を示し、不均一な環境での有効性を制限している。
代数的トポロジーの概念であるセルラーシーブ(英語版)において、そのような欠点を回避する効果的な解としてシーフニューラルネットワーク(SNN)が導入された。
ハイパーグラフへの一般化は知られているが、非方向のハイパーグラフにのみ適しており、指示されたケースに対処することができない。
本研究では,非対称関係の原理的処理をハイパーグラフ内で行うことで,せん断理論を統合するフレームワークであるDirectional Sheaf Hypergraph Networks (DSHN)を紹介する。
そこで我々は,グラフおよびハイパーグラフ学習文献に提案されている多くの既存のラプラシア行列を統一・一般化する,複素数値演算子であるDirected Sheaf Hypergraph Laplacianを構築した。
7つの実世界のデータセットと13のベースラインにまたがって、DSHNは2%から20%までの相対的な精度向上を実現し、ハイパーグラフにおける方向性の原則的処理とシーブの表現力を組み合わせることで、パフォーマンスが大幅に向上することを示した。
関連論文リスト
- Hypergraph Neural Sheaf Diffusion: A Symmetric Simplicial Set Framework for Higher-Order Learning [0.0]
本稿では,ハイパーグラフへの神経シーフ拡散の第一原理的拡張であるHypergraph Neural Sheaf Diffusion (HNSD)を紹介する。
HNSDは、対称的な単純持ち上げ、向きのあいまいさとハイパーグラフ学習に固有の隣接空間を解消する正規化次数ゼロのラプラシアンを介して動作する。
論文 参考訳(メタデータ) (2025-05-09T00:26:38Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。