論文の概要: Learning and Editing Universal Graph Prompt Tuning via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.08763v1
- Date: Tue, 09 Dec 2025 16:12:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.041297
- Title: Learning and Editing Universal Graph Prompt Tuning via Reinforcement Learning
- Title(参考訳): 強化学習によるユニバーサルグラフプロンプトチューニングの学習と編集
- Authors: Jinfeng Xu, Zheyu Chen, Shuo Yang, Jinze Li, Hewei Wang, Yijie Li, Edith C. H. Ngai,
- Abstract要約: 本稿では,Learning and Editing Universal GrAph Prompt Tuning (LEAP)を提案する。
LEAPはより理想的なプロンプトを追求しながら、普遍グラフプロンプトチューニングの理論的な基礎を保っている。
LEAPは、微調整やその他のプロンプトベースのアプローチよりも一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 14.196891839610975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early graph prompt tuning approaches relied on task-specific designs for Graph Neural Networks (GNNs), limiting their adaptability across diverse pre-training strategies. In contrast, another promising line of research has investigated universal graph prompt tuning, which operates directly in the input graph's feature space and builds a theoretical foundation that universal graph prompt tuning can theoretically achieve an equivalent effect of any prompting function, eliminating dependence on specific pre-training strategies. Recent works propose selective node-based graph prompt tuning to pursue more ideal prompts. However, we argue that selective node-based graph prompt tuning inevitably compromises the theoretical foundation of universal graph prompt tuning. In this paper, we strengthen the theoretical foundation of universal graph prompt tuning by introducing stricter constraints, demonstrating that adding prompts to all nodes is a necessary condition for achieving the universality of graph prompts. To this end, we propose a novel model and paradigm, Learning and Editing Universal GrAph Prompt Tuning (LEAP), which preserves the theoretical foundation of universal graph prompt tuning while pursuing more ideal prompts. Specifically, we first build the basic universal graph prompts to preserve the theoretical foundation and then employ actor-critic reinforcement learning to select nodes and edit prompts. Extensive experiments on graph- and node-level tasks across various pre-training strategies in both full-shot and few-shot scenarios show that LEAP consistently outperforms fine-tuning and other prompt-based approaches.
- Abstract(参考訳): 初期のグラフプロンプトチューニングアプローチは、グラフニューラルネットワーク(GNN)のタスク固有の設計に依存しており、様々な事前学習戦略にまたがる適応性を制限していた。
対照的に、別の有望な研究は、入力グラフの特徴空間内で直接動作する普遍グラフプロンプトチューニングを調査し、普遍グラフプロンプトチューニングが任意のプロンプト関数の等価な効果を理論的に達成し、特定の事前学習戦略への依存を排除できるという理論基盤を構築した。
近年の研究では、より理想的なプロンプトを追求するノードベースのグラフプロンプトチューニングが提案されている。
しかし、選択ノードベースのグラフプロンプトチューニングは、必然的に普遍グラフプロンプトチューニングの理論的基礎を損なう。
本稿では,より厳密な制約を導入し,グラフプロンプトの普遍性を達成するためには,すべてのノードにプロンプトを追加することが必須条件であることを証明し,普遍グラフプロンプトチューニングの理論基盤を強化する。
この目的のために、より理想的なプロンプトを追求しながら、ユニバーサルグラフプロンプトチューニングの理論的基礎を保ちながら、新しいモデルとパラダイムであるLearning and Editing Universal GrAph Prompt Tuning (LEAP)を提案する。
具体的には,まず基本的普遍グラフプロンプトを構築し,理論基盤を保存し,次にアクタ-批判強化学習を用いてノードを選択してプロンプトを編集する。
フルショットシナリオと少数ショットシナリオの両方において、グラフレベルのタスクとノードレベルのタスクに対する広範な実験は、LEAPが微調整やその他のプロンプトベースのアプローチを一貫して上回っていることを示している。
関連論文リスト
- GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks [66.07512871031163]
ラベルなしグラフデータよりも強力なグラフニューラルネットワーク(GNN)を事前学習する。
適応段階では、グラフプロンプトは学習可能なプロンプトで入力グラフデータを修正し、事前学習されたGNNモデルを凍結し続ける。
本稿では,事前学習したGNNモデルを下流タスクに効果的に適用するために,最初の**Graph****opology-**O**riented **P**rompting(GraphTOP)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-25T22:50:12Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - RELIEF: Reinforcement Learning Empowered Graph Feature Prompt Tuning [15.385771185777626]
近年,グラフ表現学習に一般化能力とデータ効率を応用した「事前学習,プロンプト」パラダイムが提案されている。
本稿では,Reinforcement Learning (RL) を用いたRELIEFを提案する。
論文 参考訳(メタデータ) (2024-08-06T13:55:51Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - HetGPT: Harnessing the Power of Prompt Tuning in Pre-Trained Heterogeneous Graph Neural Networks [22.775933880072294]
HetGPTは、グラフニューラルネットワークのトレーニング後プロンプトフレームワークである。
半教師付きノード分類における最先端HGNNの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-23T19:35:57Z) - Self-Pro: A Self-Prompt and Tuning Framework for Graph Neural Networks [10.794305560114903]
Self-Promptは、モデルとデータ自体に基づいたグラフのプロンプトフレームワークである。
非対称なグラフコントラスト学習を導入し、不均質に対処し、プリテキストと下流タスクの目的を整合させる。
11のベンチマークデータセットに対する広範な実験を行い、その優位性を実証する。
論文 参考訳(メタデータ) (2023-10-16T12:58:04Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。