論文の概要: Hypergraph Neural Networks through the Lens of Message Passing: A Common
Perspective to Homophily and Architecture Design
- arxiv url: http://arxiv.org/abs/2310.07684v1
- Date: Wed, 11 Oct 2023 17:35:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 21:29:12.381896
- Title: Hypergraph Neural Networks through the Lens of Message Passing: A Common
Perspective to Homophily and Architecture Design
- Title(参考訳): メッセージパッシングのレンズによるハイパーグラフニューラルネットワーク: ホモフィリとアーキテクチャ設計への共通の視点
- Authors: Lev Telyatnikov, Maria Sofia Bucarelli, Guillermo Bernardez, Olga
Zaghen, Simone Scardapane, Pietro Lio
- Abstract要約: 本稿では,メッセージパッシング方式に基づく高階ネットワークにおけるホモフィリーの新たな概念化を提案する。
ハイパーエッジ依存ノード表現を可能にすることで,HGNNを再定義する新しいメッセージパッシングフレームワークであるMultiSetを提案する。
提案を文脈化して,ハイパーグラフ表現学習における貴重な洞察を得るための,広範な実験のセットを提供する。
- 参考スコア(独自算出の注目度): 7.410655263764799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the current hypergraph learning methodologies and benchmarking
datasets in the hypergraph realm are obtained by lifting procedures from their
graph analogs, simultaneously leading to overshadowing hypergraph network
foundations. This paper attempts to confront some pending questions in that
regard: Can the concept of homophily play a crucial role in Hypergraph Neural
Networks (HGNNs), similar to its significance in graph-based research? Is there
room for improving current hypergraph architectures and methodologies? (e.g. by
carefully addressing the specific characteristics of higher-order networks) Do
existing datasets provide a meaningful benchmark for HGNNs? Diving into the
details, this paper proposes a novel conceptualization of homophily in
higher-order networks based on a message passing scheme; this approach
harmonizes the analytical frameworks of datasets and architectures, offering a
unified perspective for exploring and interpreting complex, higher-order
network structures and dynamics. Further, we propose MultiSet, a novel message
passing framework that redefines HGNNs by allowing hyperedge-dependent node
representations, as well as introduce a novel architecture MultiSetMixer that
leverages a new hyperedge sampling strategy. Finally, we provide an extensive
set of experiments that contextualize our proposals and lead to valuable
insights in hypergraph representation learning.
- Abstract(参考訳): 現在のハイパーグラフ学習手法とハイパーグラフ領域のベンチマークデータセットのほとんどは、グラフアナログからの手順を持ち上げ、同時にハイパーグラフネットワーク基盤のオーバーシェーディングにつながる。
グラフベース研究におけるその重要性と同様に、ホモフィリーの概念はハイパーグラフニューラルネットワーク(hgnns)において重要な役割を果たすことができるか?
現在のハイパーグラフアーキテクチャと方法論を改善する余地はあるか?
(例えば、高次ネットワークの特定の特性に慎重に対応することにより)
既存のデータセットは、HGNNに有意義なベンチマークを提供するか?
本稿では,メッセージパッシング方式に基づく高階ネットワークにおけるホモフィリーの新たな概念化を提案する。本手法は,複雑な高階ネットワーク構造と動的構造を探索・解釈するための統一的な視点を提供する,データセットとアーキテクチャの解析的枠組みを調和させる。
さらに、ハイパーエッジ依存ノード表現を可能にすることでHGNNを再定義する新しいメッセージパッシングフレームワークであるMultiSetを提案し、新しいハイパーエッジサンプリング戦略を活用する新しいアーキテクチャであるMultiSetMixerを提案する。
最後に、提案をコンテキスト化し、ハイパーグラフ表現学習に有用な洞察をもたらす、広範な実験セットを提供します。
関連論文リスト
- Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - Topology-guided Hypergraph Transformer Network: Unveiling Structural Insights for Improved Representation [1.1606619391009658]
位相誘導型ハイパーグラフトランスネットワーク(THTN)を提案する。
このモデルでは、まず、構造的本質を維持しながらグラフからハイパーグラフを定式化し、グラフ内の高次関係を学習する。
本稿では,意味的,構造的両面から重要なノードとハイパーエッジを発見する構造認識型自己認識機構を提案する。
論文 参考訳(メタデータ) (2023-10-14T20:08:54Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Supervised Hypergraph Reconstruction [3.69853388955692]
高次相互作用を含む多くの実世界のシステムは、ハイパーグラフによって符号化される。
データセットは、しばしば公開され、投影の形でのみ研究される。
教師付きハイパーグラフ再構成を提案する。
我々のアプローチは、ハードデータセット上での精度の桁違いに全てのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-23T23:15:03Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。