論文の概要: Hypergraph Neural Networks through the Lens of Message Passing: A Common
Perspective to Homophily and Architecture Design
- arxiv url: http://arxiv.org/abs/2310.07684v2
- Date: Mon, 5 Feb 2024 12:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 04:43:18.217332
- Title: Hypergraph Neural Networks through the Lens of Message Passing: A Common
Perspective to Homophily and Architecture Design
- Title(参考訳): メッセージパッシングのレンズによるハイパーグラフニューラルネットワーク: ホモフィリとアーキテクチャ設計への共通の視点
- Authors: Lev Telyatnikov, Maria Sofia Bucarelli, Guillermo Bernardez, Olga
Zaghen, Simone Scardapane, Pietro Lio
- Abstract要約: メッセージ・パッシング・スキームに基づく高階ネットワークにおけるホモフィリーの新たな概念化を提案する。
我々は、HNN内の高次構造を処理するための自然で、ほとんど探索されていない戦略について検討する。
- 参考スコア(独自算出の注目度): 7.410655263764799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most of the current hypergraph learning methodologies and benchmarking
datasets in the hypergraph realm are obtained by lifting procedures from their
graph analogs, leading to overshadowing specific characteristics of
hypergraphs. This paper attempts to confront some pending questions in that
regard: Q1 Can the concept of homophily play a crucial role in Hypergraph
Neural Networks (HNNs)? Q2 Is there room for improving current HNN
architectures by carefully addressing specific characteristics of higher-order
networks? Q3 Do existing datasets provide a meaningful benchmark for HNNs? To
address them, we first introduce a novel conceptualization of homophily in
higher-order networks based on a Message Passing (MP) scheme, unifying both the
analytical examination and the modeling of higher-order networks. Further, we
investigate some natural, yet mostly unexplored, strategies for processing
higher-order structures within HNNs such as keeping hyperedge-dependent node
representations, or performing node/hyperedge stochastic samplings, leading us
to the most general MP formulation up to date -MultiSet-, as well as to an
original architecture design, MultiSetMixer. Finally, we conduct an extensive
set of experiments that contextualize our proposals and successfully provide
insights about our inquiries.
- Abstract(参考訳): 現在のハイパーグラフ学習方法論やハイパーグラフ領域のベンチマークデータセットのほとんどは、グラフアナログから手順を持ち上げて得られるため、ハイパーグラフの特定の特徴を過大評価することになる。
Q1 ホモフィリーの概念はハイパーグラフニューラルネットワーク(HNN)において重要な役割を担っているか?
Q2 高階ネットワークの特徴に注意して対処することで、現在のHNNアーキテクチャを改善する余地はあるか?
Q3 既存のデータセットは、HNNに有意義なベンチマークを提供するか?
そこで,我々はまず,メッセージパッシング(mp)方式に基づく高次ネットワークにおけるホモフィリの新たな概念化を提案し,解析的検証と高次ネットワークのモデリングの両方を統一した。
さらに,ハイパーエッジ依存ノード表現の保持やノード/ハイパーエッジ確率サンプリングなど,hnn内の高次構造を処理するための自然だがほとんど未検討の手法についても検討し,これまでで最も一般的なmp定式化であるmultiset-と,オリジナルのアーキテクチャ設計であるmultisetmixerに導いた。
最後に、我々の提案を文脈的に分析し、我々の質問に対する洞察をうまく提供するための広範な実験を行う。
関連論文リスト
- Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - Topology-guided Hypergraph Transformer Network: Unveiling Structural Insights for Improved Representation [1.1606619391009658]
位相誘導型ハイパーグラフトランスネットワーク(THTN)を提案する。
このモデルでは、まず、構造的本質を維持しながらグラフからハイパーグラフを定式化し、グラフ内の高次関係を学習する。
本稿では,意味的,構造的両面から重要なノードとハイパーエッジを発見する構造認識型自己認識機構を提案する。
論文 参考訳(メタデータ) (2023-10-14T20:08:54Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Supervised Hypergraph Reconstruction [3.69853388955692]
高次相互作用を含む多くの実世界のシステムは、ハイパーグラフによって符号化される。
データセットは、しばしば公開され、投影の形でのみ研究される。
教師付きハイパーグラフ再構成を提案する。
我々のアプローチは、ハードデータセット上での精度の桁違いに全てのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-23T23:15:03Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。