論文の概要: Unified Multi-Domain Graph Pre-training for Homogeneous and Heterogeneous Graphs via Domain-Specific Expert Encoding
- arxiv url: http://arxiv.org/abs/2602.13075v1
- Date: Fri, 13 Feb 2026 16:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.036539
- Title: Unified Multi-Domain Graph Pre-training for Homogeneous and Heterogeneous Graphs via Domain-Specific Expert Encoding
- Title(参考訳): ドメイン特化専門家符号化による均質グラフと不均一グラフの統一マルチドメイングラフ事前学習
- Authors: Chundong Liang, Yongqi Huang, Dongxiao He, Peiyuan Li, Yawen Li, Di Jin, Weixiong Zhang,
- Abstract要約: マルチドメインのtextbfGraph textbfPre-training を textbfhomogeneous および textbfHeterogeneous graph に分割して提案する。
$textGPH2$は、グラフタイプとドメイン間の安定した転送を可能にする。
- 参考スコア(独自算出の注目度): 29.231227321203136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph pre-training has achieved remarkable success in recent years, delivering transferable representations for downstream adaptation. However, most existing methods are designed for either homogeneous or heterogeneous graphs, thereby hindering unified graph modeling across diverse graph types. This separation contradicts real-world applications, where mixed homogeneous and heterogeneous graphs are ubiquitous, and distribution shifts between upstream pre-training and downstream deployment are common. In this paper, we empirically demonstrate that a balanced mixture of homogeneous and heterogeneous graph pre-training benefits downstream tasks and propose a unified multi-domain \textbf{G}raph \textbf{P}re-training method across \textbf{H}omogeneous and \textbf{H}eterogeneous graphs ($\mathbf{GPH^{2}}$). To address the lack of a unified encoder for homogeneous and heterogeneous graphs, we propose a Unified Multi-View Graph Construction that simultaneously encodes both without explicit graph-type-specific designs. To cope with the increased cross-domain distribution discrepancies arising from mixed graphs, we introduce domain-specific expert encoding. Each expert is independently pre-trained on a single graph to capture domain-specific knowledge, thereby shielding the pre-training encoder from the adverse effects of cross-domain discrepancies. For downstream tasks, we further design a Task-oriented Expert Fusion Strategy that adaptively integrates multiple experts based on their discriminative strengths. Extensive experiments on mixed graphs demonstrate that $\text{GPH}^{2}$ enables stable transfer across graph types and domains, significantly outperforming existing graph pre-training methods.
- Abstract(参考訳): グラフ事前学習は近年顕著な成功を収めており、下流適応のための転送可能な表現を提供している。
しかし、既存のほとんどの手法は等質グラフまたは異質グラフのために設計されており、様々なグラフタイプをまたいだ統一グラフモデリングを妨げている。
この分離は、混合均質グラフと異質グラフがユビキタスであり、上流事前学習と下流展開の間の分布シフトが一般的である現実世界の応用と矛盾する。
本稿では,一様グラフと一様グラフのバランスの取れた混合が下流タスクの恩恵を受けることを実証的に証明し,一様マルチドメイン \textbf{G}raph \textbf{P}re-training method を \textbf{H}omogeneous および \textbf{H}eterogeneous graphs ("\mathbf{GPH^{2}}$") にわたって提案する。
同種および異種グラフに対する統一エンコーダの欠如に対処するため,明示的なグラフタイプ固有の設計を伴わずに同時にエンコーダを符号化する統一マルチビューグラフ構築法を提案する。
混合グラフから生じる領域間分布の相違に対処するため,ドメイン固有のエキスパートエンコーディングを導入する。
各専門家は、ドメイン固有の知識をキャプチャするために、単一のグラフ上で独立して事前訓練され、これにより、ドメイン間の不一致による悪影響から事前訓練エンコーダを保護する。
下流タスクに対しては、識別力に基づいて複数の専門家を適応的に統合するタスク指向のエキスパートフュージョン戦略をさらに設計する。
混合グラフに関する大規模な実験により、$\text{GPH}^{2}$はグラフタイプとドメイン間の安定な転送を可能にし、既存のグラフ事前学習法よりも大幅に優れていることが示された。
関連論文リスト
- HGPROMPT: Bridging Homogeneous and Heterogeneous Graphs for Few-shot Prompt Learning [16.587427365950838]
本稿では,HGPROMPTを提案する。HGPROMPTは,事前学習タスクと下流タスクだけでなく,均一かつ均一なグラフを統一するための,新しい事前学習および促進フレームワークである。
我々は3つの公開データセットの広範な実験を通してHGPROMPTを徹底的に評価・解析した。
論文 参考訳(メタデータ) (2023-12-04T13:20:15Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。