論文の概要: One Prompt Fits All: Universal Graph Adaptation for Pretrained Models
- arxiv url: http://arxiv.org/abs/2509.22416v1
- Date: Fri, 26 Sep 2025 14:39:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.511339
- Title: One Prompt Fits All: Universal Graph Adaptation for Pretrained Models
- Title(参考訳): 1つのプロンプトがすべて:事前訓練されたモデルに対するユニバーサルグラフ適応
- Authors: Yongqi Huang, Jitao Zhao, Dongxiao He, Xiaobao Wang, Yawen Li, Yuxiao Huang, Di Jin, Zhiyong Feng,
- Abstract要約: Graph Prompt Learning (GPL)は、グラフ事前学習モデルと下流シナリオをブリッジする有望なパラダイムとして登場した。
提案するUniPromptは、事前学習されたモデルに適応し、入力グラフの構造を保ちながら事前学習されたモデルの能力を開放する新しい手法である。
- 参考スコア(独自算出の注目度): 43.705631137295114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Prompt Learning (GPL) has emerged as a promising paradigm that bridges graph pretraining models and downstream scenarios, mitigating label dependency and the misalignment between upstream pretraining and downstream tasks. Although existing GPL studies explore various prompt strategies, their effectiveness and underlying principles remain unclear. We identify two critical limitations: (1) Lack of consensus on underlying mechanisms: Despite current GPLs have advanced the field, there is no consensus on how prompts interact with pretrained models, as different strategies intervene at varying spaces within the model, i.e., input-level, layer-wise, and representation-level prompts. (2) Limited scenario adaptability: Most methods fail to generalize across diverse downstream scenarios, especially under data distribution shifts (e.g., homophilic-to-heterophilic graphs). To address these issues, we theoretically analyze existing GPL approaches and reveal that representation-level prompts essentially function as fine-tuning a simple downstream classifier, proposing that graph prompt learning should focus on unleashing the capability of pretrained models, and the classifier adapts to downstream scenarios. Based on our findings, we propose UniPrompt, a novel GPL method that adapts any pretrained models, unleashing the capability of pretrained models while preserving the structure of the input graph. Extensive experiments demonstrate that our method can effectively integrate with various pretrained models and achieve strong performance across in-domain and cross-domain scenarios.
- Abstract(参考訳): Graph Prompt Learning(GPL)は、グラフ事前学習モデルと下流シナリオをブリッジし、ラベル依存を緩和し、上流事前学習と下流タスクのミスアライメントを緩和する有望なパラダイムとして登場した。
既存のGPL研究は様々な急進的な戦略を探求しているが、その効果と根底にある原則はいまだ不明である。
1) 基礎となるメカニズムに対する合意の欠如: 現行のGPLは分野を進歩させたが、事前訓練されたモデルとどのように相互作用するかについては合意が得られず、モデル内の様々な空間、すなわち入力レベル、レイヤワイド、表現レベルプロンプトに異なる戦略が介入する。
2) 限られたシナリオ適応性: ほとんどのメソッドは、データ分散シフト(例えば、ホモ親和性-ヘテロ親和性グラフ)の下で、様々なダウンストリームシナリオをまたいだ一般化に失敗する。
これらの問題に対処するため、我々は既存のGPLアプローチを理論的に分析し、表現レベルのプロンプトが単純なダウンストリーム分類器の微調整として機能することを明らかにし、グラフプロンプト学習は事前学習されたモデルの能力を解き放つことに集中し、分類器は下流シナリオに適応することを提案する。
提案するUniPromptは,事前学習されたモデルに適応し,入力グラフの構造を保ちながら事前学習されたモデルの有効性を解放する新しいGPL法である。
大規模な実験により,本手法は様々な事前訓練されたモデルと効果的に統合でき,ドメイン内およびクロスドメインのシナリオで高い性能が得られることが示された。
関連論文リスト
- A Scalable Pretraining Framework for Link Prediction with Efficient Adaptation [16.82426251068573]
リンク予測(LP)は、グラフ機械学習において重要なタスクである。
既存の手法は、疎結合性からの限られた監督を含む重要な課題に直面している。
これらの課題に対処するためのソリューションとして,事前学習について検討する。
論文 参考訳(メタデータ) (2025-08-06T17:10:31Z) - HGMP:Heterogeneous Graph Multi-Task Prompt Learning [18.703129208282913]
ヘテロジニアスグラフ領域のための新しいマルチタスクプロンプトフレームワークHGMPを提案する。
まず、事前訓練されたモデルと下流タスクのギャップを埋めるために、下流タスクを統一的なグラフレベルタスク形式に再構成する。
我々は,異種情報を活用し,マルチタスクシナリオの性能を向上させるために,グラフレベルのコントラスト事前学習戦略を設計する。
論文 参考訳(メタデータ) (2025-07-10T04:01:47Z) - Multiple Stochastic Prompt Tuning for Few-shot Adaptation under Extreme Domain Shift [14.85375816073596]
クラス毎に複数の学習可能なプロンプトを導入し,分布シフトによる視覚表現の多様なモードをキャプチャする。
これらのプロンプトは学習可能なガウス分布としてモデル化され、プロンプトパラメータ空間の効率的な探索を可能にする。
実験と最先端手法との比較により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-06-04T13:18:04Z) - Prompt Tuning Vision Language Models with Margin Regularizer for Few-Shot Learning under Distribution Shifts [13.21626568246313]
視覚言語基礎モデルが、分布やクラスが全く異なるデータセットに適応できるかどうかを解析する。
本稿では,少数のサンプルに対して,このような大規模VLMを直接適用するための新しいプロンプトチューニング手法であるPromptMarginを提案する。
PromptMarginは、このタスクのテキストと視覚的なプロンプトを効果的に調整し、2つのメインモジュールを持っている。
論文 参考訳(メタデータ) (2025-05-21T13:26:56Z) - Raising the Bar in Graph OOD Generalization: Invariant Learning Beyond Explicit Environment Modeling [61.222803636132554]
実世界のグラフデータは、従来のモデルでは一般化できない、多様で変化する環境を示すことが多い。
マルチプロトタイプ超球形不変学習(MPHIL)と呼ばれる新しい手法を提案する。
MPHILは最先端のパフォーマンスを実現し、様々なドメインからのグラフデータと異なる分散シフトで既存のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2025-02-15T07:40:14Z) - Can Graph Neural Networks Learn Language with Extremely Weak Text Supervision? [62.12375949429938]
本稿では,事前学習したグラフニューラルネットワークを下流タスクやデータに適用するためのマルチモーダル・プロンプト学習パラダイムを提案する。
我々の新しいパラダイムは、グラフプロンプトとテキストプロンプトの両方を同時に学習することで、Large Language Models(LLM)と直接同じ空間にグラフを埋め込む。
私たちは、GNNを極めて弱いテキスト管理で見えないクラスに一般化できるCLIPスタイルのゼロショット分類プロトタイプを構築した。
論文 参考訳(メタデータ) (2024-12-11T08:03:35Z) - Universal Prompt Tuning for Graph Neural Networks [10.250964386142819]
我々は,任意の事前学習戦略の下で,事前学習したGNNモデルに対して,GPF(Graph Prompt Feature)と呼ばれる普遍的なプロンプトベースのチューニング手法を提案する。
GPFは入力グラフの特徴空間上で動作し、理論的には任意の形式のプロンプト関数に等価な効果を達成できる。
本手法は,事前学習戦略を応用したモデルに適用した場合,既存の特殊プロンプトベースのチューニング手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-09-30T05:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。