論文の概要: GP2F: Cross-Domain Graph Prompting with Adaptive Fusion of Pre-trained Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.11629v1
- Date: Thu, 12 Feb 2026 06:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.673104
- Title: GP2F: Cross-Domain Graph Prompting with Adaptive Fusion of Pre-trained Graph Neural Networks
- Title(参考訳): GP2F: 事前学習したグラフニューラルネットワークの適応融合によるクロスドメイングラフプロンプト
- Authors: Dongxiao He, Wenxuan Sun, Yongqi Huang, Jitao Zhao, Di Jin,
- Abstract要約: Graph Prompt Learning (GPL)は、事前訓練されたグラフモデルの下流適応のための有望なパラダイムとして登場した。
GP2Fは,(1)事前学習した知識を保持する凍結分岐,(2)タスク固有の適応のための軽量なアダプタを備えた適応分岐の2つの極端を明示的にインスタンス化する。
- 参考スコア(独自算出の注目度): 26.435071565801394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Prompt Learning (GPL) has recently emerged as a promising paradigm for downstream adaptation of pre-trained graph models, mitigating the misalignment between pre-training objectives and downstream tasks. Recently, the focus of GPL has shifted from in-domain to cross-domain scenarios, which is closer to the real world applications, where the pre-training source and downstream target often differ substantially in data distribution. However, why GPLs remain effective under such domain shifts is still unexplored. Empirically, we observe that representative GPL methods are competitive with two simple baselines in cross-domain settings: full fine-tuning (FT) and linear probing (LP), motivating us to explore a deeper understanding of the prompting mechanism. We provide a theoretical analysis demonstrating that jointly leveraging these two complementary branches yields a smaller estimation error than using either branch alone, formally proving that cross-domain GPL benefits from the integration between pre-trained knowledge and task-specific adaptation. Based on this insight, we propose GP2F, a dual-branch GPL method that explicitly instantiates the two extremes: (1) a frozen branch that retains pre-trained knowledge, and (2) an adapted branch with lightweight adapters for task-specific adaptation. We then perform adaptive fusion under topology constraints via a contrastive loss and a topology-consistent loss. Extensive experiments on cross-domain few-shot node and graph classification demonstrate that our method outperforms existing methods.
- Abstract(参考訳): Graph Prompt Learning (GPL)は、最近、トレーニング済みのグラフモデルの下流適応のための有望なパラダイムとして出現し、トレーニング済みの目標と下流タスクのミスアライメントを緩和した。
近年、GPLの焦点はドメイン内からドメイン間へとシフトしており、これは実世界のアプリケーションに近い。
しかし、そのようなドメインシフトの下でGPLが有効である理由はまだ解明されていない。
実験的に、代表的なGPLメソッドは、完全な微調整(FT)と線形探索(LP)という、ドメイン間設定における2つの単純なベースラインと競合していることを観察し、プロンプト機構のより深い理解を求める動機となった。
本稿では,これらの2つの相補的分岐を共同で活用することで,いずれの分岐も使用しない場合よりも推定誤差が小さくなり,事前学習された知識とタスク固有の適応の統合によるドメイン間GPLのメリットが正式に証明されることを示す。
この知見に基づき、GP2Fは、(1)事前学習した知識を保持する凍結分岐、(2)タスク固有の適応のための軽量なアダプタを備えた適応分岐の2つの極端を明示的にインスタンス化する二重分岐GPL法である。
次に, トポロジー制約の下で, 対照的な損失とトポロジーに一貫性のある損失によって適応的融合を行う。
クロスドメイン小ショットノードとグラフ分類に関する大規模な実験により,本手法が既存手法より優れていることが示された。
関連論文リスト
- One Prompt Fits All: Universal Graph Adaptation for Pretrained Models [43.705631137295114]
Graph Prompt Learning (GPL)は、グラフ事前学習モデルと下流シナリオをブリッジする有望なパラダイムとして登場した。
提案するUniPromptは,事前学習されたモデルに適応し,入力グラフを保存しながら事前学習されたモデルの性能を解放する手法である。
論文 参考訳(メタデータ) (2025-09-26T14:39:31Z) - Pave Your Own Path: Graph Gradual Domain Adaptation on Fused Gromov-Wasserstein Geodesics [59.07903030446756]
グラフニューラルネットワークは、グラフ上の分散シフトに対して非常に脆弱である。
非IIDグラフデータのための最初のフレームワークであるGadgetを提示する。
ガジェットは既存のグラフDAメソッドとシームレスに統合して、グラフ上の大きなシフトを処理することができる。
論文 参考訳(メタデータ) (2025-05-19T05:03:58Z) - Gradual Domain Adaptation for Graph Learning [15.648578809740414]
本稿では,適応時の情報損失を最小限に抑えるコンパクトなドメインシーケンスを構成するグラフ段階的ドメイン適応(GGDA)フレームワークを提案する。
我々のフレームワークは、拡張可能なドメイン間ワッサースタイン距離($W_p(mu_t,mu_t+1)$)に対して実装可能な上界と下界を提供し、最適なドメイン形成のための柔軟な調整を可能にする。
論文 参考訳(メタデータ) (2025-01-29T06:48:59Z) - Degree-Conscious Spiking Graph for Cross-Domain Adaptation [51.58506501415558]
Spiking Graph Networks (SGNs) はグラフ分類において大きな可能性を証明している。
DeSGraDA(Degree-Consicious Spiking Graph for Cross-Domain Adaptation)という新しいフレームワークを紹介する。
DeSGraDAは3つのキーコンポーネントを持つドメイン間の一般化を強化する。
論文 参考訳(メタデータ) (2024-10-09T13:45:54Z) - Pre-trained Graphformer-based Ranking at Web-scale Search (Extended Abstract) [56.55728466130238]
本稿では,変換器の回帰能力をGNNのリンク予測強度と統合することを目的とした新しいMPGrafモデルを提案する。
我々は、MPGrafの性能を厳格に評価するために、大規模なオフラインおよびオンライン実験を行っている。
論文 参考訳(メタデータ) (2024-09-25T03:33:47Z) - Rethinking Propagation for Unsupervised Graph Domain Adaptation [17.443218657417454]
Unlabelled Graph Domain Adaptation (UGDA)は、ラベル付きソースグラフから教師なしターゲットグラフに知識を転送することを目的としている。
本稿では,グラフ領域適応のためのA2GNNというシンプルな手法を提案する。
論文 参考訳(メタデータ) (2024-02-08T13:24:57Z) - Domain Adaptive Graph Classification [0.0]
本稿では,グラフトポロジを二分枝から探索し,二分枝学習による領域差を緩和するDual Adversarial Graph Representation Learning(DAGRL)を提案する。
提案手法では,適応的な摂動を二重分岐に組み込み,ソースとターゲット分布をドメインの整合性に対応させる。
論文 参考訳(メタデータ) (2023-12-21T02:37:56Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning Domain-invariant Graph for Adaptive Semi-supervised Domain
Adaptation with Few Labeled Source Samples [65.55521019202557]
ドメイン適応は、ソースドメインからモデルを一般化して、関連するが異なるターゲットドメインのタスクに取り組むことを目的としています。
従来のドメイン適応アルゴリズムは、事前知識として扱われる十分なラベル付きデータがソースドメインで利用できると仮定する。
少数のラベル付きソースサンプルを用いたドメイン適応のためのドメイン不変グラフ学習(DGL)手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T08:13:25Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。