論文の概要: Topology-guided Hypergraph Transformer Network: Unveiling Structural
Insights for Improved Representation
- arxiv url: http://arxiv.org/abs/2310.09657v1
- Date: Sat, 14 Oct 2023 20:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:02:14.092576
- Title: Topology-guided Hypergraph Transformer Network: Unveiling Structural
Insights for Improved Representation
- Title(参考訳): トポロジー誘導型ハイパーグラフトランスネットワーク:表現改善のための構造的考察
- Authors: Khaled Mohammed Saifuddin, Mehmet Emin Aktas, Esra Akbas
- Abstract要約: 位相誘導型ハイパーグラフトランスネットワーク(THTN)を提案する。
このモデルでは、まず、構造的本質を維持しながらグラフからハイパーグラフを定式化し、グラフ内の高次関係を学習する。
本稿では,意味的,構造的両面から重要なノードとハイパーエッジを発見する構造認識型自己認識機構を提案する。
- 参考スコア(独自算出の注目度): 1.3044677039636754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hypergraphs, with their capacity to depict high-order relationships, have
emerged as a significant extension of traditional graphs. Although Graph Neural
Networks (GNNs) have remarkable performance in graph representation learning,
their extension to hypergraphs encounters challenges due to their intricate
structures. Furthermore, current hypergraph transformers, a special variant of
GNN, utilize semantic feature-based self-attention, ignoring topological
attributes of nodes and hyperedges. To address these challenges, we propose a
Topology-guided Hypergraph Transformer Network (THTN). In this model, we first
formulate a hypergraph from a graph while retaining its structural essence to
learn higher-order relations within the graph. Then, we design a simple yet
effective structural and spatial encoding module to incorporate the topological
and spatial information of the nodes into their representation. Further, we
present a structure-aware self-attention mechanism that discovers the important
nodes and hyperedges from both semantic and structural viewpoints. By
leveraging these two modules, THTN crafts an improved node representation,
capturing both local and global topological expressions. Extensive experiments
conducted on node classification tasks demonstrate that the performance of the
proposed model consistently exceeds that of the existing approaches.
- Abstract(参考訳): 高階関係を描く能力を持つハイパーグラフは、従来のグラフの重要な拡張として現れてきた。
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な性能を持つが、ハイパーグラフへの拡張はその複雑な構造のために困難に直面する。
さらに、GNNの特殊な変種である現在のハイパーグラフトランスフォーマーは、ノードやハイパーエッジのトポロジ特性を無視し、意味的特徴に基づく自己アテンションを利用する。
これらの課題に対処するため,Topology-Guided Hypergraph Transformer Network (THTN)を提案する。
このモデルでは、まずグラフからハイパーグラフを定式化し、その構造的本質を保持してグラフ内の高次関係を学習する。
そこで我々は,ノードのトポロジ的,空間的情報を表現に組み込むシンプルな構造的,空間的エンコーディングモジュールを設計した。
さらに,セマンティクスと構造の両方の観点から重要なノードやハイパーエッジを検出する,構造認識型セルフアテンション機構を提案する。
これら2つのモジュールを活用することで、THTNはノード表現を改善し、局所的およびグローバルなトポロジ表現をキャプチャする。
ノード分類タスクで実施された大規模な実験は、提案モデルの性能が既存の手法よりも常に高いことを示す。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - UniG-Encoder: A Universal Feature Encoder for Graph and Hypergraph Node
Classification [6.977634174845066]
グラフおよびハイパーグラフ表現学習のための普遍的特徴エンコーダ(UniG-Encoder)が設計されている。
アーキテクチャは、連結ノードのトポロジ的関係をエッジやハイパーエッジに前方変換することから始まる。
符号化されたノードの埋め込みは、投影行列の変換によって記述された逆変換から導かれる。
論文 参考訳(メタデータ) (2023-08-03T09:32:50Z) - From Hypergraph Energy Functions to Hypergraph Neural Networks [94.88564151540459]
パラメータ化されたハイパーグラフ正規化エネルギー関数の表現型族を示す。
次に、これらのエネルギーの最小化がノード埋め込みとして効果的に機能することを実証する。
提案した双レベルハイパーグラフ最適化と既存のGNNアーキテクチャを共通的に用いている。
論文 参考訳(メタデータ) (2023-06-16T04:40:59Z) - Hypergraph Convolutional Networks via Equivalency between Hypergraphs
and Undirected Graphs [59.71134113268709]
本稿では,EDVWおよびEIVWハイパーグラフを処理可能な一般学習フレームワークであるGeneral Hypergraph Spectral Convolution(GHSC)を提案する。
本稿では,提案するフレームワークが最先端の性能を達成できることを示す。
ソーシャルネットワーク分析,視覚的客観的分類,タンパク質学習など,様々な分野の実験により,提案手法が最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2022-03-31T10:46:47Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Learnable Hypergraph Laplacian for Hypergraph Learning [34.28748027233654]
HyperGraph Convolutional Neural Networks (HGCNN) は、グラフ構造化データに保存された高次関係をモデル化する可能性を示した。
我々はHypERgrAph Laplacian aDaptor(HERALD)と呼ばれる適応的なハイパーグラフ構造を構築するための最初の学習ベース手法を提案する。
HERALDは、ハイパーノードとハイパーエッジの隣接関係をエンドツーエンドで適応的に最適化し、タスク認識ハイパーグラフを学習する。
論文 参考訳(メタデータ) (2021-06-12T02:07:07Z) - Topological Regularization for Graph Neural Networks Augmentation [12.190045459064413]
本稿では,トポロジカル正則化に基づくグラフノードの機能拡張手法を提案する。
我々は,モデルの有効性を証明するために,多数のデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-04-03T01:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。