論文の概要: HyperMagNet: A Magnetic Laplacian based Hypergraph Neural Network
- arxiv url: http://arxiv.org/abs/2402.09676v1
- Date: Thu, 15 Feb 2024 03:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 17:18:46.977216
- Title: HyperMagNet: A Magnetic Laplacian based Hypergraph Neural Network
- Title(参考訳): HyperMagNet: 磁気ラプラシア系ハイパーグラフニューラルネットワーク
- Authors: Tatyana Benko, Martin Buck, Ilya Amburg, Stephen J. Young, Sinan G.
Aksoy
- Abstract要約: 本稿では,ハイパーグラフを非可逆マルコフ連鎖として表現する,ハイパーグラフニューラルネットワークの代替手法を提案する。
我々はこのマルコフ連鎖を用いて、提案したハイパーグラフニューラルネットワークの入力として機能する複素エルミートラプラシアン行列(磁気ラプラシアン)を構築する。
- 参考スコア(独自算出の注目度): 0.16874375111244327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In data science, hypergraphs are natural models for data exhibiting multi-way
relations, whereas graphs only capture pairwise. Nonetheless, many proposed
hypergraph neural networks effectively reduce hypergraphs to undirected graphs
via symmetrized matrix representations, potentially losing important
information. We propose an alternative approach to hypergraph neural networks
in which the hypergraph is represented as a non-reversible Markov chain. We use
this Markov chain to construct a complex Hermitian Laplacian matrix - the
magnetic Laplacian - which serves as the input to our proposed hypergraph
neural network. We study HyperMagNet for the task of node classification, and
demonstrate its effectiveness over graph-reduction based hypergraph neural
networks.
- Abstract(参考訳): データサイエンスでは、ハイパーグラフはマルチウェイ関係を示すデータのための自然なモデルである。
それでも、多くのハイパーグラフニューラルネットワークは、対称性行列表現を介して非向グラフへのハイパーグラフを効果的に削減し、重要な情報を失う可能性がある。
本稿では,ハイパーグラフを非可逆マルコフ連鎖として表現するハイパーグラフニューラルネットワークの代替手法を提案する。
我々はこのマルコフ連鎖を用いて、提案したハイパーグラフニューラルネットワークの入力として機能する複素エルミートラプラシアン行列(磁気ラプラシアン)を構築する。
我々はハイパーマグネットをノード分類のタスクとして研究し,グラフリダクションに基づくハイパーグラフニューラルネットワークの有効性を実証する。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Stable and Transferable Hyper-Graph Neural Networks [95.07035704188984]
グラフニューラルネットワーク(GNN)を用いたハイパーグラフでサポートする信号処理アーキテクチャを提案する。
スペクトル類似性により任意のグラフにまたがってGNNの安定性と転送可能性の誤差をバウンドするフレームワークを提供する。
論文 参考訳(メタデータ) (2022-11-11T23:44:20Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - NetVec: A Scalable Hypergraph Embedding System [1.8979377273990425]
スケーラブルな非監視ハイパーグラフ埋め込みのための新しいフレームワークであるNetVecを紹介します。
我々は、NetVecがグラフ埋め込みアルゴリズムと結合して、数百万のノードとハイパーエッジを数分で埋め込むことができることを示す。
論文 参考訳(メタデータ) (2021-03-09T18:06:56Z) - Noise-robust classification with hypergraph neural network [4.003697389752555]
本稿では,ハイパーグラフニューラルネットワーク手法の新たなバージョンを提案する。
これら5つの手法の精度を評価し,比較した。
実験結果から, ハイパグラフニューラルネットワーク法は, ノイズレベルが大きくなると最高の性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-02-03T08:34:53Z) - Line Hypergraph Convolution Network: Applying Graph Convolution for
Hypergraphs [18.7475578342125]
可変ハイパーエッジサイズを持つハイパーグラフにグラフ畳み込みを適用する新しい手法を提案する。
我々はハイパーグラフの行グラフという古典的な概念を、ハイパーグラフ学習の文献で初めて用いている。
論文 参考訳(メタデータ) (2020-02-09T16:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。