論文の概要: LEDA: Latent Semantic Distribution Alignment for Multi-domain Graph Pre-training
- arxiv url: http://arxiv.org/abs/2602.22660v1
- Date: Thu, 26 Feb 2026 06:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.555502
- Title: LEDA: Latent Semantic Distribution Alignment for Multi-domain Graph Pre-training
- Title(参考訳): LEDA:マルチドメイングラフ事前学習のための潜在意味分布アライメント
- Authors: Lianze Shan, Jitao Zhao, Dongxiao He, Siqi Liu, Jiaxu Cui, Weixiong Zhang,
- Abstract要約: 汎用グラフ事前学習のための新しいLatent sEmantic Distribution Alignment (LEDA) モデルを提案する。
LEDAは、広範囲のグラフと下流タスクに強いパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 26.195024921277962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generic large models, such as GPT and DeepSeek, have motivated the introduction of universality to graph pre-training, aiming to learn rich and generalizable knowledge across diverse domains using graph representations to improve performance in various downstream applications. However, most existing methods face challenges in learning effective knowledge from generic graphs, primarily due to simplistic data alignment and limited training guidance. The issue of simplistic data alignment arises from the use of a straightforward unification for highly diverse graph data, which fails to align semantics and misleads pre-training models. The problem with limited training guidance lies in the arbitrary application of in-domain pre-training paradigms to cross-domain scenarios. While it is effective in enhancing discriminative representation in one data space, it struggles to capture effective knowledge from many graphs. To address these challenges, we propose a novel Latent sEmantic Distribution Alignment (LEDA) model for universal graph pre-training. Specifically, we first introduce a dimension projection unit to adaptively align diverse domain features into a shared semantic space with minimal information loss. Furthermore, we design a variational semantic inference module to obtain the shared latent distribution. The distribution is then adopted to guide the domain projection, aligning it with shared semantics across domains and ensuring cross-domain semantic learning. LEDA exhibits strong performance across a broad range of graphs and downstream tasks. Remarkably, in few-shot cross-domain settings, it significantly outperforms in-domain baselines and advanced universal pre-training models.
- Abstract(参考訳): GPTやDeepSeekといった一般的な大規模モデルの最近の進歩は、グラフ事前学習への普遍性の導入を動機付けており、グラフ表現を用いて様々な分野にわたる豊かで一般化可能な知識を学習し、様々な下流アプリケーションの性能を向上させることを目的としている。
しかし、既存のほとんどの手法は、単純なデータアライメントと限られたトレーニングガイダンスによって、一般的なグラフから効果的な知識を学ぶことの難しさに直面している。
単純化されたデータアライメントの問題は、非常に多様なグラフデータに対する単純な統一の使用によって生じる。
限られたトレーニングガイダンスの問題は、ドメイン間のシナリオに対するドメイン内の事前トレーニングパラダイムの任意の適用にある。
1つのデータ空間における識別的表現を高めるのに効果的であるが、多くのグラフから効果的な知識を取得するのに苦労している。
これらの課題に対処するため,我々は汎用グラフ事前学習のための新しいLatent sEmantic Distribution Alignment (LEDA)モデルを提案する。
具体的には、まず、情報損失を最小限に抑えた共有意味空間に、多様なドメイン特徴を適応的にアライメントする次元投影ユニットを導入する。
さらに,共有潜在分布を得るための変分意味推論モジュールを設計する。
その後、ドメインプロジェクションをガイドし、ドメイン間の共有セマンティクスと整合させ、ドメイン間のセマンティクス学習を保証するために、ディストリビューションが採用される。
LEDAは、広範囲のグラフと下流タスクに強いパフォーマンスを示す。
注目すべきは、数ショットのクロスドメイン設定では、ドメイン内のベースラインと高度なユニバーサル事前トレーニングモデルよりも大幅に優れています。
関連論文リスト
- OWLEYE: Zero-Shot Learner for Cross-Domain Graph Data Anomaly Detection [48.77471686671269]
OWLEYEは、複数のグラフから正常な振る舞いの伝達可能なパターンを学習する新しいフレームワークである。
OWLEYEは最先端のベースラインに比べて性能と一般化性が優れていることを示す。
論文 参考訳(メタデータ) (2026-01-27T02:08:18Z) - Towards Text-free Graph Foundation Models: Rethinking Multi-Domain Graph Contrastive Learning [40.56379624114316]
本稿では,MDGCLという,新しいマルチドメイン事前学習およびクロスドメイン転送フレームワークを提案する。
事前学習の段階では、ドメインの違いを実質的に認識し、キャプチャするための対照的な学習戦略を設計する。
下流の段階では、細かなドメイン知識の伝達を可能にするためのドメインアテンション機構を導入する。
論文 参考訳(メタデータ) (2025-06-26T03:14:50Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [59.7297608804716]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining [18.955565096212183]
大規模言語モデル (LLM) はコンピュータビジョン (CV) と自然言語処理 (NLP) の分野に革命をもたらした。
LLMの最も注目すべき進歩の1つは、単一のモデルが複数のドメインにまたがる広範囲で多様なデータセットでトレーニングされていることである。
論文 参考訳(メタデータ) (2024-02-15T09:55:39Z) - WEDGE: Web-Image Assisted Domain Generalization for Semantic
Segmentation [72.88657378658549]
本稿では,Web画像の多様性を一般化可能なセマンティックセグメンテーションに活用したWEb画像支援ドメインゲネラライゼーション手法を提案する。
また,ウェブクローラー画像のスタイルをトレーニング中のトレーニング画像に注入する手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T05:19:58Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。