論文の概要: HeSRN: Representation Learning On Heterogeneous Graphs via Slot-Aware Retentive Network
- arxiv url: http://arxiv.org/abs/2510.09767v1
- Date: Fri, 10 Oct 2025 18:18:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.613683
- Title: HeSRN: Representation Learning On Heterogeneous Graphs via Slot-Aware Retentive Network
- Title(参考訳): HeSRN:Slot-Aware Retentive Networkによる異種グラフの表現学習
- Authors: Yifan Lu, Ziyun Zou, Belal Alsinglawi, Islam Al-Qudah, Izzat Alsmadi, Feilong Tang, Pengfei Jiao, Shoaib Jameel,
- Abstract要約: HeSRNは、効率的かつ表現力のあるヘテロジニアスグラフ表現学習のための、新しいヘテロジニアススロット対応Retentive Networkである。
HeSRNは、ノード分類タスクにおける最先端の異種グラフニューラルネットワークとグラフトランスフォーマーベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 22.60005673964228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Transformers have recently achieved remarkable progress in graph representation learning by capturing long-range dependencies through self-attention. However, their quadratic computational complexity and inability to effectively model heterogeneous semantics severely limit their scalability and generalization on real-world heterogeneous graphs. To address these issues, we propose HeSRN, a novel Heterogeneous Slot-aware Retentive Network for efficient and expressive heterogeneous graph representation learning. HeSRN introduces a slot-aware structure encoder that explicitly disentangles node-type semantics by projecting heterogeneous features into independent slots and aligning their distributions through slot normalization and retention-based fusion, effectively mitigating the semantic entanglement caused by forced feature-space unification in previous Transformer-based models. Furthermore, we replace the self-attention mechanism with a retention-based encoder, which models structural and contextual dependencies in linear time complexity while maintaining strong expressive power. A heterogeneous retentive encoder is further employed to jointly capture both local structural signals and global heterogeneous semantics through multi-scale retention layers. Extensive experiments on four real-world heterogeneous graph datasets demonstrate that HeSRN consistently outperforms state-of-the-art heterogeneous graph neural networks and Graph Transformer baselines on node classification tasks, achieving superior accuracy with significantly lower computational complexity.
- Abstract(参考訳): グラフ変換器は、最近、自己注意を通して長距離依存をキャプチャすることでグラフ表現学習において顕著な進歩を遂げた。
しかし、その2次計算の複雑さと、ヘテロジニアス意味論を効果的にモデル化できないことは、実世界ヘテロジニアスグラフのスケーラビリティと一般化を著しく制限する。
これらの問題に対処するために, 効率的かつ表現力のあるヘテロジニアスグラフ表現学習のための新しいヘテロジニアススロット対応リテークネットワークHeSRNを提案する。
HeSRNはスロット対応構造エンコーダを導入し、不均一な特徴を独立スロットに投影し、スロット正規化と保持に基づく融合を通じて分布を整列することで、ノード型セマンティクスを明示的に切り離し、従来のTransformerベースのモデルにおける強制的特徴空間統一による意味的絡みを効果的に緩和する。
さらに, 自己保持機構を保持型エンコーダに置き換え, 強い表現力を維持しつつ, 線形時間複雑性における構造的および文脈的依存関係をモデル化する。
局所的構造信号と大域的不均一なセマンティクスの両方を多スケール保持層を通じて同時捕捉するために、異種保持エンコーダが用いられる。
4つの実世界の異種グラフデータセットに対する大規模な実験により、HeSRNは、ノード分類タスクにおける最先端の異種グラフニューラルネットワークとグラフトランスフォーマーベースラインを一貫して上回り、計算複雑性を著しく低く抑えられることを示した。
関連論文リスト
- Attention Beyond Neighborhoods: Reviving Transformer for Graph Clustering [21.941792185132996]
Attentive Graph Clustering Network (AGCN)は、グラフが注目されているという概念を再解釈する新しいアーキテクチャである。
AGCNはアテンション機構をグラフ構造に埋め込み、効果的なグローバル情報抽出を可能にする。
我々のフレームワークは、AGCNの挙動をグラフニューラルネットワーク(GNN)やトランスフォーマーと対比するために理論解析を取り入れている。
論文 参考訳(メタデータ) (2025-09-18T14:51:13Z) - DiffGraph: Heterogeneous Graph Diffusion Model [16.65576765238224]
グラフニューラルネットワーク(GNN)は、グラフ構造化データモデリングに革命をもたらしたが、従来のGNNは、現実のシナリオで一般的な複雑な異種構造に苦戦している。
異種グラフ拡散モデル(DiffGraph)は,革新的なクロスビュー・デノベーション・ストラテジーを導入した先駆的なフレームワークである。
中心となるDiffGraphは、高度な遅延不均一グラフ拡散機構を備え、優れたノイズ管理のための新しい前方および後方拡散プロセスを実装している。
論文 参考訳(メタデータ) (2025-01-04T15:30:48Z) - Synergistic Deep Graph Clustering Network [14.569867830074292]
我々はSynC(Syngistic Deep Graph Clustering Network)というグラフクラスタリングフレームワークを提案する。
本稿では,構造拡張を導くための高品質な埋め込みを実現するために,TIGAE (Transform Input Graph Auto-Encoder) を設計する。
特に、表現学習と構造増強は重みを共有し、モデルパラメータの数を著しく減少させる。
論文 参考訳(メタデータ) (2024-06-22T09:40:34Z) - What Improves the Generalization of Graph Transformers? A Theoretical Dive into the Self-attention and Positional Encoding [67.59552859593985]
自己アテンションと位置エンコーディングを組み込んだグラフトランスフォーマーは、さまざまなグラフ学習タスクのための強力なアーキテクチャとして登場した。
本稿では,半教師付き分類のための浅いグラフ変換器の理論的検討について紹介する。
論文 参考訳(メタデータ) (2024-06-04T05:30:16Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - HINormer: Representation Learning On Heterogeneous Information Networks
with Graph Transformer [29.217820912610602]
グラフトランスフォーマー(GT)は、グラフ全体にわたってもメッセージパッシングがより広範なカバレッジに伝達できるパラダイムで機能する。
ヘテロジニアス情報ネットワーク(HIN)におけるGTの探索はまだ未公開である。
本稿では,ノード表現学習のための大域集約機構を利用するHINormerという新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-02-22T12:25:07Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Spectral Graph Convolutional Networks With Lifting-based Adaptive Graph
Wavelets [81.63035727821145]
スペクトルグラフ畳み込みネットワーク(SGCN)はグラフ表現学習において注目を集めている。
本稿では,適応グラフウェーブレットを用いたグラフ畳み込みを実装した新しいスペクトルグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T17:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。