論文の概要: MUG: Meta-path-aware Universal Heterogeneous Graph Pre-Training
- arxiv url: http://arxiv.org/abs/2602.22645v1
- Date: Thu, 26 Feb 2026 05:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.545153
- Title: MUG: Meta-path-aware Universal Heterogeneous Graph Pre-Training
- Title(参考訳): MUG:メタパス対応のユニバーサルな異種グラフ事前学習
- Authors: Lianze Shan, Jitao Zhao, Dongxiao He, Yongqi Huang, Zhiyong Feng, Weixiong Zhang,
- Abstract要約: ユニバーサルグラフ事前学習は、エンコーダにラベルのないグラフから転送可能な表現を学ぶための有望な方法を提供する。
ヘテロジニアスグラフは、より構造的および意味的な複雑さを示す。
本稿では,Meta-path-aware Universal heterogeneous Graph pre-training (MUG)アプローチを提案する。
- 参考スコア(独自算出の注目度): 31.639971171132615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal graph pre-training has emerged as a key paradigm in graph representation learning, offering a promising way to train encoders to learn transferable representations from unlabeled graphs and to effectively generalize across a wide range of downstream tasks. However, recent explorations in universal graph pre-training primarily focus on homogeneous graphs and it remains unexplored for heterogeneous graphs, which exhibit greater structural and semantic complexity. This heterogeneity makes it highly challenging to train a universal encoder for diverse heterogeneous graphs: (i) the diverse types with dataset-specific semantics hinder the construction of a unified representation space; (ii) the number and semantics of meta-paths vary across datasets, making encoding and aggregation patterns learned from one dataset difficult to apply to others. To address these challenges, we propose a novel Meta-path-aware Universal heterogeneous Graph pre-training (MUG) approach. Specifically, for challenge (i), MUG introduces a input unification module that integrates information from multiple node and relation types within each heterogeneous graph into a unified representation.This representation is then projected into a shared space by a dimension-aware encoder, enabling alignment across graphs with diverse schemas.Furthermore, for challenge (ii), MUG trains a shared encoder to capture consistent structural patterns across diverse meta-path views rather than relying on dataset-specific aggregation strategies, while a global objective encourages discriminability and reduces dataset-specific biases. Extensive experiments demonstrate the effectiveness of MUG on some real datasets.
- Abstract(参考訳): ユニバーサルグラフ事前学習は、グラフ表現学習における重要なパラダイムとして現れており、エンコーダにラベルのないグラフから転送可能な表現を学習させ、幅広い下流タスクを効果的に一般化する、有望な方法を提供している。
しかし、近年の普遍グラフ事前学習における探索は、主に同質グラフに焦点を当てており、構造的および意味的な複雑さを示す異質グラフに対しては探索されていない。
この不均一性は、多種多様不均一グラフに対する普遍エンコーダの訓練を非常に困難にする。
一 データセット固有の意味を持つ多様な種類が統一表現空間の構築を妨げること。
(ii) メタデータの数と意味はデータセットによって異なり、あるデータセットから学習したエンコーディングと集約パターンを他人に適用することが困難になる。
これらの課題に対処するために,メタパスを意識したUniversal heterogeneous Graph pre-training (MUG)アプローチを提案する。
特に挑戦は
(i)MUGは入力統一モジュールを導入し、各不均一グラフ内の複数のノードと関係型の情報を統一表現に統合する。この表現は、次元認識エンコーダによって共有空間に投影され、様々なスキーマでグラフ間のアライメントを可能にする。
(ii)MUGは共有エンコーダを訓練し、データセット固有の集約戦略に頼るのではなく、多様なメタパスビューにまたがる一貫性のある構造パターンをキャプチャし、グローバルな目的は識別可能性を促進し、データセット固有のバイアスを低減する。
大規模な実験は、MUGが実際のデータセットに与える影響を実証している。
関連論文リスト
- Heterogeneous Graph Alignment for Joint Reasoning and Interpretability [2.2710270108565207]
クロスグラフ学習のための統一的でスケーラブルで解釈可能なフレームワークであるMulti-Graph Meta-Transformer (MGMT) を提案する。
MGMTはまずグラフトランスフォーマーエンコーダを各グラフ、構造、属性を共有潜在空間にマッピングする。
次に、タスク関連スーパーノードを注意して選択し、潜在空間における類似性を利用してグラフをまたいで機能的に整列したスーパーノードを接続するメタグラフを構築する。
論文 参考訳(メタデータ) (2026-01-30T05:40:13Z) - HiGPT: Heterogeneous Graph Language Model [27.390123898556805]
不均一グラフ学習は、異種グラフ内のエンティティ間の複雑な関係や多様な意味を捉えることを目的としている。
異種グラフ学習のための既存のフレームワークは、多種多様な異種グラフデータセットをまたいだ一般化に制限がある。
異種グラフ命令チューニングパラダイムを用いた一般的なグラフモデルであるHiGPTを提案する。
論文 参考訳(メタデータ) (2024-02-25T08:07:22Z) - GraphMETRO: Mitigating Complex Graph Distribution Shifts via Mixture of Aligned Experts [75.51612253852002]
GraphMETROは、自然多様性をモデル化し、複雑な分散シフトをキャプチャするグラフニューラルネットワークアーキテクチャである。
GraphMETROはGOODベンチマークから4つのデータセットに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-12-07T20:56:07Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Multi-View Graph Representation Learning Beyond Homophily [2.601278669926709]
非教師付きグラフ表現学習(GRL)は,多種多様なグラフ情報をラベル管理なしでタスクに依存しない埋め込みに抽出することを目的としている。
MVGE(Multi-view Graph)と呼ばれる新しいフレームワークを提案し、キーデザインのセットを特定した。
論文 参考訳(メタデータ) (2023-04-15T08:35:49Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。