論文の概要: Residual Enhanced Multi-Hypergraph Neural Network
- arxiv url: http://arxiv.org/abs/2105.00490v1
- Date: Sun, 2 May 2021 14:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:02:24.564010
- Title: Residual Enhanced Multi-Hypergraph Neural Network
- Title(参考訳): 残差強調型マルチハイパーグラフニューラルネットワーク
- Authors: Jing Huang, Xiaolin Huang and Jie Yang
- Abstract要約: HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
- 参考スコア(独自算出の注目度): 26.42547421121713
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hypergraphs are a generalized data structure of graphs to model higher-order
correlations among entities, which have been successfully adopted into various
research domains. Meanwhile, HyperGraph Neural Network (HGNN) is currently the
de-facto method for hypergraph representation learning. However, HGNN aims at
single hypergraph learning and uses a pre-concatenation approach when
confronting multi-modal datasets, which leads to sub-optimal exploitation of
the inter-correlations of multi-modal hypergraphs. HGNN also suffers the
over-smoothing issue, that is, its performance drops significantly when layers
are stacked up. To resolve these issues, we propose the Residual enhanced
Multi-Hypergraph Neural Network, which can not only fuse multi-modal
information from each hypergraph effectively, but also circumvent the
over-smoothing issue associated with HGNN. We conduct experiments on two 3D
benchmarks, the NTU and the ModelNet40 datasets, and compare against multiple
state-of-the-art methods. Experimental results demonstrate that both the
residual hypergraph convolutions and the multi-fusion architecture can improve
the performance of the base model and the combined model achieves a new
state-of-the-art. Code is available at
\url{https://github.com/OneForward/ResMHGNN}.
- Abstract(参考訳): ハイパーグラフは、様々な研究領域でうまく採用されているエンティティ間の高次相関をモデル化するためのグラフの一般化データ構造である。
一方、ハイパーグラフニューラルネットワーク(HGNN)は現在、ハイパーグラフ表現学習のデファクト手法である。
しかし、HGNNは単一ハイパーグラフ学習を目標としており、マルチモーダルデータセットと向き合う場合、事前連結アプローチを用いて、マルチモーダルハイパーグラフの相互相関を最適以下に活用する。
HGNNはまた、レイヤーが積み重ねられたときにパフォーマンスが大幅に低下する過度な問題にも悩まされている。
これらの問題を解決するために,各ハイパーグラフからマルチモーダル情報を効果的に融合させるだけでなく,hgnnに関連する過剰スムーシング問題を回避できる,拡張されたマルチハイパーグラフニューラルネットワークを提案する。
我々は,NTUとModelNet40データセットの2つの3Dベンチマーク実験を行い,複数の最先端手法との比較を行った。
実験の結果,残差ハイパーグラフ畳み込みとマルチフュージョンアーキテクチャの両方がベースモデルの性能を向上し,コンビネーションモデルが新たな最先端を実現することが示された。
コードは \url{https://github.com/oneforward/resmhgnn} で入手できる。
関連論文リスト
- Scalable Weibull Graph Attention Autoencoder for Modeling Document Networks [50.42343781348247]
解析条件後部を解析し,推論精度を向上させるグラフポアソン因子分析法(GPFA)を開発した。
また,GPFAを多層構造に拡張したグラフPoisson gamma belief Network (GPGBN) を用いて,階層的な文書関係を複数の意味レベルで捉える。
本モデルでは,高品質な階層型文書表現を抽出し,様々なグラフ解析タスクにおいて有望な性能を実現する。
論文 参考訳(メタデータ) (2024-10-13T02:22:14Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - DualHGNN: A Dual Hypergraph Neural Network for Semi-Supervised Node
Classification based on Multi-View Learning and Density Awareness [3.698434507617248]
グラフに基づく半教師付きノード分類は、研究価値と重要性の高い多くのアプリケーションにおいて最先端のアプローチであることが示されている。
本稿では、ハイパーグラフ構造学習とハイパーグラフ表現学習を同時に統合した新しいデュアル接続モデルであるデュアルハイパーグラフニューラルネットワーク(DualHGNN)を提案する。
論文 参考訳(メタデータ) (2023-06-07T07:40:04Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Preventing Over-Smoothing for Hypergraph Neural Networks [0.0]
階層数の増加に伴い,ハイパーグラフニューラルネットワークの性能は向上しないことを示す。
我々はディープ・HGCNと呼ばれる新しいディープ・ハイパーグラフ・畳み込みネットワークを開発し、ディープ・レイヤにおけるノード表現を維持できる。
論文 参考訳(メタデータ) (2022-03-31T16:33:31Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - UniGNN: a Unified Framework for Graph and Hypergraph Neural Networks [8.777765815864367]
エンティティ間の高次相関をモデル化するフレキシブルな表現構造であるhypergraphは、近年様々な研究領域から注目を集めている。
グラフおよびハイパーグラフニューラルネットワークにおけるメッセージパッシングプロセスを解釈するための統一フレームワークであるUniGNNを提案する。
複数の実世界のデータセットに対するUniGNNの有効性を示す実験が行われている。
論文 参考訳(メタデータ) (2021-05-03T15:48:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。