論文の概要: THeGAU: Type-Aware Heterogeneous Graph Autoencoder and Augmentation
- arxiv url: http://arxiv.org/abs/2512.10589v1
- Date: Thu, 11 Dec 2025 12:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.356823
- Title: THeGAU: Type-Aware Heterogeneous Graph Autoencoder and Augmentation
- Title(参考訳): THeGAU: タイプアウェアな異種グラフオートエンコーダと拡張
- Authors: Ming-Yi Hong, Miao-Chen Chiang, Youchen Teng, Yu-Hsiang Wang, Chih-Yu Wang, Che Lin,
- Abstract要約: 異種グラフニューラルネットワーク(HGNN)は異種情報ネットワーク(HIN)のモデル化に有効である
HGNNは、しばしば型情報損失と構造ノイズに悩まされ、表現の忠実さと一般化が制限される。
我々は、タイプ認識グラフオートエンコーダとガイド付きグラフ拡張を組み合わせたモデルに依存しないフレームワークであるTHeGAUを提案し、ノード分類を改善する。
- 参考スコア(独自算出の注目度): 16.50144638827504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous Graph Neural Networks (HGNNs) are effective for modeling Heterogeneous Information Networks (HINs), which encode complex multi-typed entities and relations. However, HGNNs often suffer from type information loss and structural noise, limiting their representational fidelity and generalization. We propose THeGAU, a model-agnostic framework that combines a type-aware graph autoencoder with guided graph augmentation to improve node classification. THeGAU reconstructs schema-valid edges as an auxiliary task to preserve node-type semantics and introduces a decoder-driven augmentation mechanism to selectively refine noisy structures. This joint design enhances robustness, accuracy, and efficiency while significantly reducing computational overhead. Extensive experiments on three benchmark HIN datasets (IMDB, ACM, and DBLP) demonstrate that THeGAU consistently outperforms existing HGNN methods, achieving state-of-the-art performance across multiple backbones.
- Abstract(参考訳): Heterogeneous Graph Neural Networks (HGNN) は、複雑なマルチタイプエンティティと関係を符号化した異種情報ネットワーク(HIN)のモデル化に有効である。
しかし、HGNNはタイプ情報損失や構造ノイズに悩まされ、表現の忠実度や一般化が制限される。
我々は、タイプ認識グラフオートエンコーダとガイド付きグラフ拡張を組み合わせたモデルに依存しないフレームワークであるTHeGAUを提案し、ノード分類を改善する。
THeGAUは、ノードタイプのセマンティクスを保存するための補助タスクとしてスキーマバリッドエッジを再構築し、ノイズ構造を選択的に洗練するためのデコーダ駆動の拡張メカニズムを導入する。
この共同設計により、計算オーバーヘッドを大幅に削減しつつ、堅牢性、正確性、効率性が向上する。
3つのベンチマークHINデータセット(IMDB、ACM、DBLP)の大規模な実験は、THeGAUが既存のHGNNメソッドを一貫して上回り、複数のバックボーンで最先端のパフォーマンスを達成することを示した。
関連論文リスト
- Synergistic Deep Graph Clustering Network [14.569867830074292]
我々はSynC(Syngistic Deep Graph Clustering Network)というグラフクラスタリングフレームワークを提案する。
本稿では,構造拡張を導くための高品質な埋め込みを実現するために,TIGAE (Transform Input Graph Auto-Encoder) を設計する。
特に、表現学習と構造増強は重みを共有し、モデルパラメータの数を著しく減少させる。
論文 参考訳(メタデータ) (2024-06-22T09:40:34Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。