論文の概要: Hypergraph Transformer for Semi-Supervised Classification
- arxiv url: http://arxiv.org/abs/2312.11385v1
- Date: Mon, 18 Dec 2023 17:50:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 19:06:07.054663
- Title: Hypergraph Transformer for Semi-Supervised Classification
- Title(参考訳): 半監督型分類用ハイパーグラフ変換器
- Authors: Zexi Liu, Bohan Tang, Ziyuan Ye, Xiaowen Dong, Siheng Chen, Yanfeng
Wang
- Abstract要約: 我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
- 参考スコア(独自算出の注目度): 53.955927042715274
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hypergraphs play a pivotal role in the modelling of data featuring
higher-order relations involving more than two entities. Hypergraph neural
networks emerge as a powerful tool for processing hypergraph-structured data,
delivering remarkable performance across various tasks, e.g., hypergraph node
classification. However, these models struggle to capture global structural
information due to their reliance on local message passing. To address this
challenge, we propose a novel hypergraph learning framework, HyperGraph
Transformer (HyperGT). HyperGT uses a Transformer-based neural network
architecture to effectively consider global correlations among all nodes and
hyperedges. To incorporate local structural information, HyperGT has two
distinct designs: i) a positional encoding based on the hypergraph incidence
matrix, offering valuable insights into node-node and hyperedge-hyperedge
interactions; and ii) a hypergraph structure regularization in the loss
function, capturing connectivities between nodes and hyperedges. Through these
designs, HyperGT achieves comprehensive hypergraph representation learning by
effectively incorporating global interactions while preserving local
connectivity patterns. Extensive experiments conducted on real-world hypergraph
node classification tasks showcase that HyperGT consistently outperforms
existing methods, establishing new state-of-the-art benchmarks. Ablation
studies affirm the effectiveness of the individual designs of our model.
- Abstract(参考訳): ハイパーグラフは、2つ以上のエンティティを含む高次関係を特徴とするデータのモデリングにおいて重要な役割を果たす。
ハイパーグラフニューラルネットワークは、ハイパーグラフ構造データを処理する強力なツールとして登場し、ハイパーグラフノードの分類など、様々なタスクで優れたパフォーマンスを提供する。
しかし、これらのモデルは、局所的なメッセージパッシングに依存するため、グローバルな構造情報を捉えるのに苦労している。
この課題に対処するために,新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
ローカルな構造情報を組み込むため、HyperGTには2つの異なる設計がある。
一 ハイパーグラフ発生行列に基づく位置符号化であって、ノード-ノード及びハイパーエッジ-ハイパーエッジ相互作用に関する貴重な洞察を提供するもの
二 損失関数におけるハイパーグラフ構造を規則化し、ノードとハイパーエッジ間の接続性を捉えること。
これらの設計を通じて、HyperGTは局所接続パターンを維持しながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
実世界のハイパーグラフノード分類タスクで実施された大規模な実験は、HyperGTが既存の手法を一貫して上回り、新しい最先端ベンチマークを確立することを示した。
アブレーション研究は,モデル個々の設計の有効性を肯定する。
関連論文リスト
- Topology-guided Hypergraph Transformer Network: Unveiling Structural Insights for Improved Representation [1.1606619391009658]
位相誘導型ハイパーグラフトランスネットワーク(THTN)を提案する。
このモデルでは、まず、構造的本質を維持しながらグラフからハイパーグラフを定式化し、グラフ内の高次関係を学習する。
本稿では,意味的,構造的両面から重要なノードとハイパーエッジを発見する構造認識型自己認識機構を提案する。
論文 参考訳(メタデータ) (2023-10-14T20:08:54Z) - A Unified View Between Tensor Hypergraph Neural Networks And Signal
Denoising [7.083679120873857]
テンソル・ハイパーグラフ畳み込みネットワーク(T-HGCN)がハイパーグラフ上の高次相互作用を維持するための強力なアーキテクチャとして登場したことを示す。
さらに,ハイパーGSD問題に基づくテンソル・ハイアグラフ反復ネットワーク(T-HGIN)を設計し,各層に複数ステップの更新手法を適用する。
論文 参考訳(メタデータ) (2023-09-15T13:19:31Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Augmentations in Hypergraph Contrastive Learning: Fabricated and
Generative [126.0985540285981]
我々は、ハイパーグラフニューラルネットワークの一般化性を改善するために、画像/グラフからの対照的な学習アプローチ(ハイパーGCLと呼ぶ)を適用する。
我々は、高次関係を符号化したハイパーエッジを増大させる2つのスキームを作成し、グラフ構造化データから3つの拡張戦略を採用する。
拡張ビューを生成するためのハイパーグラフ生成モデルを提案し、次に、ハイパーグラフ拡張とモデルパラメータを協調的に学習するエンド・ツー・エンドの微分可能なパイプラインを提案する。
論文 参考訳(メタデータ) (2022-10-07T20:12:20Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - Adaptive Neural Message Passing for Inductive Learning on Hypergraphs [21.606287447052757]
本稿では,新しいハイパーグラフ学習フレームワークHyperMSGを紹介する。
各ノードの次数集中度に関連する注意重みを学習することで、データとタスクに適応する。
堅牢で、幅広いタスクやデータセットで最先端のハイパーグラフ学習手法より優れています。
論文 参考訳(メタデータ) (2021-09-22T12:24:02Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-10T12:37:55Z) - HNHN: Hypergraph Networks with Hyperedge Neurons [90.15253035487314]
HNHNはハイパーグラフ畳み込みネットワークであり、ハイパーノードとハイパーエッジの両方に非線形活性化関数が適用される。
実世界のデータセットの分類精度と速度の両面でのHNHNの性能向上を示す。
論文 参考訳(メタデータ) (2020-06-22T14:08:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。