論文の概要: Preventing Over-Smoothing for Hypergraph Neural Networks
- arxiv url: http://arxiv.org/abs/2203.17159v1
- Date: Thu, 31 Mar 2022 16:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 18:45:42.043131
- Title: Preventing Over-Smoothing for Hypergraph Neural Networks
- Title(参考訳): ハイパーグラフニューラルネットワークの過平滑化防止
- Authors: Guanzi Chen, Jiying Zhang
- Abstract要約: 階層数の増加に伴い,ハイパーグラフニューラルネットワークの性能は向上しないことを示す。
我々はディープ・HGCNと呼ばれる新しいディープ・ハイパーグラフ・畳み込みネットワークを開発し、ディープ・レイヤにおけるノード表現を維持できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, hypergraph learning has attracted great attention due to its
capacity in representing complex and high-order relationships. However, current
neural network approaches designed for hypergraphs are mostly shallow, thus
limiting their ability to extract information from high-order neighbors. In
this paper, we show both theoretically and empirically, that the performance of
hypergraph neural networks does not improve as the number of layers increases,
which is known as the over-smoothing problem. To tackle this issue, we develop
a new deep hypergraph convolutional network called Deep-HGCN, which can
maintain the heterogeneity of node representation in deep layers. Specifically,
we prove that a $k$-layer Deep-HGCN simulates a polynomial filter of order $k$
with arbitrary coefficients, which can relieve the problem of over-smoothing.
Experimental results on various datasets demonstrate the superior performance
of the proposed model comparing to the state-of-the-art hypergraph learning
approaches.
- Abstract(参考訳): 近年、ハイパーグラフ学習は、複雑で高次な関係を表現する能力から大きな注目を集めている。
しかし、ハイパーグラフ用に設計された現在のニューラルネットワークアプローチはほとんどが浅いため、高次の隣人から情報を抽出する能力は制限されている。
本稿では,階層数の増加に伴ってハイパーグラフニューラルネットワークの性能が向上しないことを理論的および実証的に示す。
この問題に対処するため、我々はディープ層におけるノード表現の不均一性を維持できるディープ・HGCNと呼ばれる新しいディープ・ハイパーグラフ畳み込みネットワークを開発した。
具体的には、$k$層Deep-HGCNが任意の係数を持つ$k$の多項式フィルタをシミュレートし、過度な平滑化の問題を解消する。
種々のデータセットに対する実験結果から,提案モデルの性能を最先端のハイパーグラフ学習手法と比較した。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Equivariant Hypergraph Diffusion Neural Operators [81.32770440890303]
ハイパーグラフを符号化するためにニューラルネットワークを使用するハイパーグラフニューラルネットワーク(HNN)は、データの高次関係をモデル化する有望な方法を提供する。
本研究ではED-HNNと呼ばれる新しいHNNアーキテクチャを提案する。
実世界の9つのハイパーグラフデータセットのノード分類におけるED-HNNの評価を行った。
論文 参考訳(メタデータ) (2022-07-14T06:17:00Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Residual Enhanced Multi-Hypergraph Neural Network [26.42547421121713]
HyperGraph Neural Network (HGNN) はハイパーグラフ表現学習のためのデファクト手法である。
本稿では,各ハイパーグラフからのマルチモーダル情報を効果的に融合できるResidual enhanced Multi-Hypergraph Neural Networkを提案する。
論文 参考訳(メタデータ) (2021-05-02T14:53:32Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。