論文の概要: Deep Hypergraph Structure Learning
- arxiv url: http://arxiv.org/abs/2208.12547v1
- Date: Fri, 26 Aug 2022 10:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 12:30:38.501811
- Title: Deep Hypergraph Structure Learning
- Title(参考訳): 深層ハイパーグラフ構造学習
- Authors: Zizhao Zhang, Yifan Feng, Shihui Ying, Yue Gao
- Abstract要約: 高次相関の学習は、近年、ハイパーグラフが広く使われているデータ表現学習において、優位性を示している。
データ間のハイパーグラフ構造の生成方法はまだ難しい課題です。
DeepHGSLはハイパーグラフに基づく表現学習のためのハイパーグラフ構造を最適化するために設計されている。
- 参考スコア(独自算出の注目度): 34.972686247703024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning on high-order correlation has shown superiority in data
representation learning, where hypergraph has been widely used in recent
decades. The performance of hypergraph-based representation learning methods,
such as hypergraph neural networks, highly depends on the quality of the
hypergraph structure. How to generate the hypergraph structure among data is
still a challenging task. Missing and noisy data may lead to "bad connections"
in the hypergraph structure and destroy the hypergraph-based representation
learning process. Therefore, revealing the high-order structure, i.e., the
hypergraph behind the observed data, becomes an urgent but important task. To
address this issue, we design a general paradigm of deep hypergraph structure
learning, namely DeepHGSL, to optimize the hypergraph structure for
hypergraph-based representation learning. Concretely, inspired by the
information bottleneck principle for the robustness issue, we first extend it
to the hypergraph case, named by the hypergraph information bottleneck (HIB)
principle. Then, we apply this principle to guide the hypergraph structure
learning, where the HIB is introduced to construct the loss function to
minimize the noisy information in the hypergraph structure. The hypergraph
structure can be optimized and this process can be regarded as enhancing the
correct connections and weakening the wrong connections in the training phase.
Therefore, the proposed method benefits to extract more robust representations
even on a heavily noisy structure. Finally, we evaluate the model on four
benchmark datasets for representation learning. The experimental results on
both graph- and hypergraph-structured data demonstrate the effectiveness and
robustness of our method compared with other state-of-the-art methods.
- Abstract(参考訳): 高次相関の学習は、近年ハイパーグラフが広く使われているデータ表現学習において優位性を示している。
ハイパーグラフニューラルネットワークのようなハイパーグラフに基づく表現学習手法の性能は、ハイパーグラフ構造の品質に大きく依存する。
データのハイパーグラフ構造をどのように生成するかはまだ難しい課題です。
データの欠如とノイズはハイパーグラフ構造における"悪い接続"を引き起こし、ハイパーグラフベースの表現学習プロセスを破壊する可能性がある。
したがって、高次構造、すなわち観測データの背後にあるハイパーグラフを明らかにすることは緊急だが重要なタスクとなる。
本稿では,ハイパーグラフを用いた表現学習のためのハイパーグラフ構造を最適化するために,ディープハイパーグラフ構造学習の一般的なパラダイム,すなわちdeephgslを設計する。
具体的には、ロバスト性問題のための情報ボトルネック原理に着想を得て、まずhypergraph情報ボトルネック(hib)原則によって名付けられたhypergraphケースに拡張します。
次に、この原理をハイパーグラフ構造学習の指導に応用し、hibはハイパーグラフ構造におけるノイズ情報を最小限に抑えるために損失関数を構築する。
ハイパーグラフ構造を最適化することができ、このプロセスは正しい接続を強化し、トレーニングフェーズで間違った接続を弱めると見なすことができる。
そこで提案手法は, 強雑音構造であっても, より頑健な表現を抽出する利点がある。
最後に、表現学習のための4つのベンチマークデータセットでモデルを評価する。
グラフおよびハイパーグラフ構造データの実験結果は,他の最先端手法と比較して,本手法の有効性とロバスト性を示した。
関連論文リスト
- Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Hypergraph-MLP: Learning on Hypergraphs without Message Passing [41.43504601820411]
多くのハイパーグラフニューラルネットワークは、ハイパーグラフ構造上のメッセージパッシングを利用してノード表現学習を強化する。
我々は、ハイパーグラフ構造に関する情報を、明示的なメッセージパッシングを伴わずに、トレーニングの監督に組み込む方法を提案する。
具体的には,ハイパーグラフ構造化データのための新しい学習フレームワークであるHypergraph-MLPを紹介する。
論文 参考訳(メタデータ) (2023-12-15T13:30:04Z) - Hypergraph Structure Inference From Data Under Smoothness Prior [46.568839316694515]
本稿では,ラベル付きデータを監視対象とせずに,潜在的なハイパーエッジの確率を推定する手法を提案する。
本稿では,この手法を用いてハイパーグラフ構造とノード特徴の関係を確率論的モデリングにより導出する。
本手法は,既存のハイパーグラフ構造推定法よりも効率的にデータから有意義なハイパーグラフ構造を学習できることを示す。
論文 参考訳(メタデータ) (2023-08-27T18:28:58Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - Graph Information Bottleneck for Subgraph Recognition [103.37499715761784]
本稿では,深層グラフ学習における部分グラフ認識問題に対するグラフ情報ブートネック(GIB)の枠組みを提案する。
この枠組みの下では、最大情報でありながら圧縮的な部分グラフ(IB-subgraph)を認識できる。
IB-サブグラフの特性を3つのアプリケーションシナリオで評価する。
論文 参考訳(メタデータ) (2020-10-12T09:32:20Z) - HyperSAGE: Generalizing Inductive Representation Learning on Hypergraphs [24.737560790401314]
2段階のニューラルメッセージパッシング戦略を用いて、ハイパーグラフを介して情報を正確かつ効率的に伝播する新しいハイパーグラフ学習フレームワークHyperSAGEを提案する。
本稿では,HyperSAGEが代表的ベンチマークデータセット上で最先端のハイパーグラフ学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-09T13:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。