論文の概要: LEDA: Latent Semantic Distribution Alignment for Multi-domain Graph Pre-training
- arxiv url: http://arxiv.org/abs/2602.22660v1
- Date: Thu, 26 Feb 2026 06:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.555502
- Title: LEDA: Latent Semantic Distribution Alignment for Multi-domain Graph Pre-training
- Title(参考訳): LEDA:マルチドメイングラフ事前学習のための潜在意味分布アライメント
- Authors: Lianze Shan, Jitao Zhao, Dongxiao He, Siqi Liu, Jiaxu Cui, Weixiong Zhang,
- Abstract要約: 汎用グラフ事前学習のための新しいLatent sEmantic Distribution Alignment (LEDA) モデルを提案する。
LEDAは、広範囲のグラフと下流タスクに強いパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 26.195024921277962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generic large models, such as GPT and DeepSeek, have motivated the introduction of universality to graph pre-training, aiming to learn rich and generalizable knowledge across diverse domains using graph representations to improve performance in various downstream applications. However, most existing methods face challenges in learning effective knowledge from generic graphs, primarily due to simplistic data alignment and limited training guidance. The issue of simplistic data alignment arises from the use of a straightforward unification for highly diverse graph data, which fails to align semantics and misleads pre-training models. The problem with limited training guidance lies in the arbitrary application of in-domain pre-training paradigms to cross-domain scenarios. While it is effective in enhancing discriminative representation in one data space, it struggles to capture effective knowledge from many graphs. To address these challenges, we propose a novel Latent sEmantic Distribution Alignment (LEDA) model for universal graph pre-training. Specifically, we first introduce a dimension projection unit to adaptively align diverse domain features into a shared semantic space with minimal information loss. Furthermore, we design a variational semantic inference module to obtain the shared latent distribution. The distribution is then adopted to guide the domain projection, aligning it with shared semantics across domains and ensuring cross-domain semantic learning. LEDA exhibits strong performance across a broad range of graphs and downstream tasks. Remarkably, in few-shot cross-domain settings, it significantly outperforms in-domain baselines and advanced universal pre-training models.
- Abstract(参考訳): GPTやDeepSeekといった一般的な大規模モデルの最近の進歩は、グラフ事前学習への普遍性の導入を動機付けており、グラフ表現を用いて様々な分野にわたる豊かで一般化可能な知識を学習し、様々な下流アプリケーションの性能を向上させることを目的としている。
しかし、既存のほとんどの手法は、単純なデータアライメントと限られたトレーニングガイダンスによって、一般的なグラフから効果的な知識を学ぶことの難しさに直面している。
単純化されたデータアライメントの問題は、非常に多様なグラフデータに対する単純な統一の使用によって生じる。
限られたトレーニングガイダンスの問題は、ドメイン間のシナリオに対するドメイン内の事前トレーニングパラダイムの任意の適用にある。
1つのデータ空間における識別的表現を高めるのに効果的であるが、多くのグラフから効果的な知識を取得するのに苦労している。
これらの課題に対処するため,我々は汎用グラフ事前学習のための新しいLatent sEmantic Distribution Alignment (LEDA)モデルを提案する。
具体的には、まず、情報損失を最小限に抑えた共有意味空間に、多様なドメイン特徴を適応的にアライメントする次元投影ユニットを導入する。
さらに,共有潜在分布を得るための変分意味推論モジュールを設計する。
その後、ドメインプロジェクションをガイドし、ドメイン間の共有セマンティクスと整合させ、ドメイン間のセマンティクス学習を保証するために、ディストリビューションが採用される。
LEDAは、広範囲のグラフと下流タスクに強いパフォーマンスを示す。
注目すべきは、数ショットのクロスドメイン設定では、ドメイン内のベースラインと高度なユニバーサル事前トレーニングモデルよりも大幅に優れています。
関連論文リスト
- OWLEYE: Zero-Shot Learner for Cross-Domain Graph Data Anomaly Detection [48.77471686671269]
OWLEYEは、複数のグラフから正常な振る舞いの伝達可能なパターンを学習する新しいフレームワークである。
OWLEYEは最先端のベースラインに比べて性能と一般化性が優れていることを示す。
論文 参考訳(メタデータ) (2026-01-27T02:08:18Z) - Towards Text-free Graph Foundation Models: Rethinking Multi-Domain Graph Contrastive Learning [40.56379624114316]
本稿では,MDGCLという,新しいマルチドメイン事前学習およびクロスドメイン転送フレームワークを提案する。
事前学習の段階では、ドメインの違いを実質的に認識し、キャプチャするための対照的な学習戦略を設計する。
下流の段階では、細かなドメイン知識の伝達を可能にするためのドメインアテンション機構を導入する。
論文 参考訳(メタデータ) (2025-06-26T03:14:50Z) - One Model for One Graph: A New Perspective for Pretraining with Cross-domain Graphs [59.7297608804716]
複雑なネットワークパターンをキャプチャする強力なツールとして、グラフニューラルネットワーク(GNN)が登場した。
既存のGNNには、慎重にドメイン固有のアーキテクチャ設計と、データセットのスクラッチからのトレーニングが必要です。
我々は、新しいクロスドメイン事前学習フレームワーク「1つのグラフのための1つのモデル」を提案する。
論文 参考訳(メタデータ) (2024-11-30T01:49:45Z) - All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining [18.955565096212183]
大規模言語モデル (LLM) はコンピュータビジョン (CV) と自然言語処理 (NLP) の分野に革命をもたらした。
LLMの最も注目すべき進歩の1つは、単一のモデルが複数のドメインにまたがる広範囲で多様なデータセットでトレーニングされていることである。
論文 参考訳(メタデータ) (2024-02-15T09:55:39Z) - GraphControl: Adding Conditional Control to Universal Graph Pre-trained
Models for Graph Domain Transfer Learning [28.04023419006392]
グラフ自己教師型アルゴリズムは、豊富なラベルのないグラフデータから一般的な知識を取得することに成功している。
類似しているように見える領域の異なるグラフは、属性のセマンティクスの点で大きく異なる。
我々は、より優れたグラフドメイン転送学習を実現するために、ComputerNetによってモチベーションを得たGraphControlと呼ばれる革新的なデプロイモジュールを導入する。
論文 参考訳(メタデータ) (2023-10-11T10:30:49Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Finding Diverse and Predictable Subgraphs for Graph Domain
Generalization [88.32356432272356]
本稿では,不明瞭な分布シフトにより性能が低下するグラフの分布外一般化に着目した。
本稿では,DPSと呼ばれる新しいグラフ領域の一般化フレームワークを提案する。
ノードレベルのベンチマークとグラフレベルのベンチマークの両方の実験により、提案したDPSはグラフ領域の一般化タスクにおいて印象的な性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-19T07:57:56Z) - WEDGE: Web-Image Assisted Domain Generalization for Semantic
Segmentation [72.88657378658549]
本稿では,Web画像の多様性を一般化可能なセマンティックセグメンテーションに活用したWEb画像支援ドメインゲネラライゼーション手法を提案する。
また,ウェブクローラー画像のスタイルをトレーニング中のトレーニング画像に注入する手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T05:19:58Z) - Efficient Variational Graph Autoencoders for Unsupervised Cross-domain
Prerequisite Chains [3.358838755118655]
本稿では,このドメイン間前提連鎖学習タスクを効率的に解くために,DAVGAE(Domain-versaational Variational Graph Autoencoders)を導入する。
我々の新しいモデルは変分グラフオートエンコーダ(VGAE)とドメイン識別器から構成される。
その結果,本モデルは1/10グラフスケールと1/3時間のみを用いて,最近のグラフベースの計算より優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-17T19:07:27Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。