論文の概要: Hypergraph Pre-training with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2105.10862v1
- Date: Sun, 23 May 2021 06:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:06:37.623480
- Title: Hypergraph Pre-training with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによるハイパーグラフ事前学習
- Authors: Boxin Du, Changhe Yuan, Robert Barton, Tal Neiman, Hanghang Tong
- Abstract要約: 本稿では,ハイパーグラフのためのグラフニューラルネットワークを用いたエンドツーエンドのバイレベル事前学習戦略を提案する。
HyperGeneという名前のフレームワークには3つの特長がある。
利用可能な場合、ラベル情報を取得することができるが、より重要なことは、主に自己管理方式で設計されており、適用範囲を大きく広げていることである。
- 参考スコア(独自算出の注目度): 30.768860573214102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the prevalence of hypergraphs in a variety of high-impact
applications, there are relatively few works on hypergraph representation
learning, most of which primarily focus on hyperlink prediction, often
restricted to the transductive learning setting. Among others, a major hurdle
for effective hypergraph representation learning lies in the label scarcity of
nodes and/or hyperedges. To address this issue, this paper presents an
end-to-end, bi-level pre-training strategy with Graph Neural Networks for
hypergraphs. The proposed framework named HyperGene bears three distinctive
advantages. First, it is capable of ingesting the labeling information when
available, but more importantly, it is mainly designed in the self-supervised
fashion which significantly broadens its applicability. Second, at the heart of
the proposed HyperGene are two carefully designed pretexts, one on the node
level and the other on the hyperedge level, which enable us to encode both the
local and the global context in a mutually complementary way. Third, the
proposed framework can work in both transductive and inductive settings. When
applying the two proposed pretexts in tandem, it can accelerate the adaptation
of the knowledge from the pre-trained model to downstream applications in the
transductive setting, thanks to the bi-level nature of the proposed method. The
extensive experimental results demonstrate that: (1) HyperGene achieves up to
5.69% improvements in hyperedge classification, and (2) improves pre-training
efficiency by up to 42.80% on average.
- Abstract(参考訳): 様々なハイインパクトアプリケーションでハイパーグラフが普及しているにもかかわらず、ハイパーグラフ表現学習に関する著作は少なく、その大半はハイパーリンク予測に重点を置いており、しばしばトランスダクティブ学習の設定に制限されている。
中でも、効果的なハイパーグラフ表現学習の大きなハードルは、ノードやハイパーエッジのラベル不足にある。
本稿では,ハイパーグラフのためのグラフニューラルネットワークを用いたエンドツーエンドの双方向事前学習戦略を提案する。
HyperGeneという名前のフレームワークには3つの特長がある。
まず、利用可能なラベル情報を取得することができるが、より重要なのは、主に自己管理方式で設計されており、適用性を大幅に拡大する。
第二に、提案されたHyperGeneの中心には、ノードレベルとハイパーエッジレベルの2つの慎重に設計されたプリテキストがあり、これにより、ローカルとグローバル両方のコンテキストを相互に補完的にエンコードすることができます。
第三に、提案されたフレームワークは、トランスダクティブとインダクティブの両方で機能する。
提案した2つの前提文をタンデムで適用すると,提案手法のバイレベル特性により,事前学習されたモデルから下流アプリケーションへの知識の適応が促進される。
1)HyperGeneは、ハイパーエッジ分類において最大5.69%の改善を実現し、(2)トレーニング前の効率を平均で42.80%改善する。
関連論文リスト
- HYGENE: A Diffusion-based Hypergraph Generation Method [6.997955138726617]
本稿では, 局所展開の進展による課題に対処する拡散型ハイパーグラフ生成(HYGENE)手法を提案する。
実験では、ハイジェネの有効性を示し、ハイパーグラフの様々な特性を忠実に模倣する能力を示した。
論文 参考訳(メタデータ) (2024-08-29T11:45:01Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - Self-Supervised Pretraining for Heterogeneous Hypergraph Neural Networks [9.987252149421982]
異種HyperGNNのための自己教師型事前学習フレームワークを提案する。
本手法は,データ内のエンティティ間の高次関係を,自己教師型で効果的に捉えることができる。
実験の結果,提案するフレームワークは,様々なダウンストリームタスクにおいて,最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2023-11-19T16:34:56Z) - Enhancing Hyperedge Prediction with Context-Aware Self-Supervised
Learning [64.46188414653204]
我々は新しいハイパーエッジ予測フレームワーク(CASH)を提案する。
CASHは、コンテキスト認識ノードアグリゲーションを用いて、(C1)ハイパーエッジの各ノード間の複雑な関係をキャプチャし、(2)ハイパーエッジ予測のコンテキストにおける自己教師付きコントラスト学習を行い、(C2)ハイパーグラフ表現を強化する。
6つの実世界のハイパーグラフの実験により、CASHはハイパーエッジ予測の精度で競合する全ての手法を一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-11T20:06:00Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - DualHGNN: A Dual Hypergraph Neural Network for Semi-Supervised Node
Classification based on Multi-View Learning and Density Awareness [3.698434507617248]
グラフに基づく半教師付きノード分類は、研究価値と重要性の高い多くのアプリケーションにおいて最先端のアプローチであることが示されている。
本稿では、ハイパーグラフ構造学習とハイパーグラフ表現学習を同時に統合した新しいデュアル接続モデルであるデュアルハイパーグラフニューラルネットワーク(DualHGNN)を提案する。
論文 参考訳(メタデータ) (2023-06-07T07:40:04Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - HNHN: Hypergraph Networks with Hyperedge Neurons [90.15253035487314]
HNHNはハイパーグラフ畳み込みネットワークであり、ハイパーノードとハイパーエッジの両方に非線形活性化関数が適用される。
実世界のデータセットの分類精度と速度の両面でのHNHNの性能向上を示す。
論文 参考訳(メタデータ) (2020-06-22T14:08:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。