論文の概要: Hyperbolic Heterogeneous Graph Transformer
- arxiv url: http://arxiv.org/abs/2601.08251v1
- Date: Tue, 13 Jan 2026 06:15:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.078378
- Title: Hyperbolic Heterogeneous Graph Transformer
- Title(参考訳): ハイパーボリック不均一グラフ変換器
- Authors: Jongmin Park, Seunghoon Han, Hyewon Lee, Won-Yong Shin, Sungsu Lim,
- Abstract要約: ハイパーボリック不均一グラフ変換器(HypHGT)
HypHGT は双曲空間内で不均一グラフ表現を学習する。
ノード分類タスクにおける最先端メソッドを一貫して上回る。
- 参考スコア(独自算出の注目度): 17.663232831076634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In heterogeneous graphs, we can observe complex structures such as tree-like or hierarchical structures. Recently, the hyperbolic space has been widely adopted in many studies to effectively learn these complex structures. Although these methods have demonstrated the advantages of the hyperbolic space in learning heterogeneous graphs, most existing methods still have several challenges. They rely heavily on tangent-space operations, which often lead to mapping distortions during frequent transitions. Moreover, their message-passing architectures mainly focus on local neighborhood information, making it difficult to capture global hierarchical structures and long-range dependencies between different types of nodes. To address these limitations, we propose Hyperbolic Heterogeneous Graph Transformer (HypHGT), which effectively and efficiently learns heterogeneous graph representations entirely within the hyperbolic space. Unlike previous message-passing based hyperbolic heterogeneous GNNs, HypHGT naturally captures both local and global dependencies through transformer-based architecture. Furthermore, the proposed relation-specific hyperbolic attention mechanism in HypHGT, which operates with linear time complexity, enables efficient computation while preserving the heterogeneous information across different relation types. This design allows HypHGT to effectively capture the complex structural properties and semantic information inherent in heterogeneous graphs. We conduct comprehensive experiments to evaluate the effectiveness and efficiency of HypHGT, and the results demonstrate that it consistently outperforms state-of-the-art methods in node classification task, with significantly reduced training time and memory usage.
- Abstract(参考訳): 不均一グラフでは、木のような構造や階層構造のような複雑な構造を観察することができる。
近年、双曲空間はこれらの複雑な構造を効果的に学習するために多くの研究で広く採用されている。
これらの手法はヘテロジニアスグラフの学習における双曲空間の利点を示しているが、既存の手法にはいくつかの課題がある。
それらは接空間演算に大きく依存しており、しばしば頻繁に遷移する際の写像の歪みを引き起こす。
さらに、メッセージパッシングアーキテクチャは、主にローカルな近隣情報に焦点を当てており、グローバルな階層構造と異なるタイプのノード間の長距離依存関係をキャプチャすることは困難である。
これらの制約に対処するため,双曲型不均一グラフ変換器 (HypHGT) を提案する。
従来のメッセージパスベースの双曲型ヘテロジニアスGNNとは異なり、HypHGTはトランスフォーマーベースのアーキテクチャを通じて、ローカルとグローバル両方の依存関係を自然にキャプチャする。
さらに,線形時間複雑度を持つHypHGTにおける関係固有双曲的注意機構の提案により,関係型をまたいだ異種情報を保存しながら,効率的な計算が可能となった。
この設計により、HypHGTはヘテロジニアスグラフに固有の複雑な構造特性や意味情報を効果的に捉えることができる。
我々はHypHGTの有効性と効率を評価するための総合的な実験を行い、その結果、ノード分類タスクにおける最先端の手法を一貫して上回り、トレーニング時間とメモリ使用量を著しく削減することを示した。
関連論文リスト
- HGC-Herd: Efficient Heterogeneous Graph Condensation via Representative Node Herding [17.632566656960673]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、多型ノード間の複雑なセマンティクスや関係をモデル化する強力な能力を示している。
HGC-Herdは、コンパクトだが情報に富む異種グラフを生成する訓練不要な凝縮フレームワークである。
ACM、DBLP、Freebaseに関する大規模な実験により、HGC-Herdはフルグラフトレーニングに匹敵するあるいは優れた精度が得られることが確認された。
論文 参考訳(メタデータ) (2025-12-08T09:24:48Z) - Metapath-based Hyperbolic Contrastive Learning for Heterogeneous Graph Embedding [8.741342958861877]
メタパスに基づく双曲型コントラスト学習フレームワーク(MHCL)を提案する。
MHCLは、多元グラフ内の様々な複雑な構造を捉えるために複数の双曲空間を使用する。
比較学習法では, 同じメタパスの埋め込み距離を最小化し, 双曲空間における異なるメタパス間の距離を最大化する。
論文 参考訳(メタデータ) (2025-06-20T05:19:11Z) - Heterogeneous Temporal Hypergraph Neural Network [25.524117795336053]
グラフ表現学習(GRL)は,グラフ構造化データのモデリングに有効な手法である。
本稿では,HTGの高次相互作用をフルに捉えるために,HTHGN(Heterogeneous Temporal HyperGraph Neural Network)を提案する。
3つの実世界のHTGデータセットに関する詳細な実験結果は、提案したHTHGNがHTGの高次相互作用をモデル化するための有効性を検証する。
論文 参考訳(メタデータ) (2025-06-18T10:36:11Z) - Multi-Hyperbolic Space-based Heterogeneous Graph Attention Network [5.816451272912859]
ヘテロジニアスグラフ内の多様なパワーロー構造を捉えるために,マルチハイパーボリック空間に基づくヘテロジニアスグラフアテンションネットワーク(MSGAT)を提案する。
MSGATは、さまざまなグラフ機械学習タスクにおいて最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-11-18T04:55:26Z) - SGFormer: Single-Layer Graph Transformers with Approximation-Free Linear Complexity [74.51827323742506]
グラフ上でのトランスフォーマーにおける多層アテンションの導入の必要性を評価する。
本研究では,一層伝播を一層伝播に還元できることを示す。
これは、グラフ上で強力で効率的なトランスフォーマーを構築するための新しい技術パスを示唆している。
論文 参考訳(メタデータ) (2024-09-13T17:37:34Z) - When Heterophily Meets Heterogeneous Graphs: Latent Graphs Guided Unsupervised Representation Learning [6.2167203720326025]
非教師付きヘテロジニアスグラフ表現学習(UHGRL)は,ラベルのない実用的なグラフを扱うことの重要性から注目されている。
我々はセマンティックなヘテロフィリーを定義し、この問題に対処するためにLatGRL(Latent Graphs Guided Unsupervised Representation Learning)と呼ばれる革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-01T10:25:06Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。