論文の概要: GraphPrompter: Multi-stage Adaptive Prompt Optimization for Graph In-Context Learning
- arxiv url: http://arxiv.org/abs/2505.02027v1
- Date: Sun, 04 May 2025 08:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.389082
- Title: GraphPrompter: Multi-stage Adaptive Prompt Optimization for Graph In-Context Learning
- Title(参考訳): GraphPrompter: グラフインコンテキスト学習のための多段階適応型プロンプト最適化
- Authors: Rui Lv, Zaixi Zhang, Kai Zhang, Qi Liu, Weibo Gao, Jiawei Liu, Jiaxia Yan, Linan Yue, Fangzhou Yao,
- Abstract要約: コンテキスト内学習をグラフ化する鍵は、選択したプロンプトの例に基づいて下流グラフを実行することである。
既存の手法では、プロンプトとしてサブグラフやエッジをランダムに選択し、ノイズの多いグラフプロンプトとモデル性能が劣る。
マルチステージ適応型プロンプト最適化法であるGraphPrompterを開発した。
私たちのアプローチは最先端のベースラインを8%以上越えています。
- 参考スコア(独自算出の注目度): 18.254759409121956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph In-Context Learning, with the ability to adapt pre-trained graph models to novel and diverse downstream graphs without updating any parameters, has gained much attention in the community. The key to graph in-context learning is to perform downstream graphs conditioned on chosen prompt examples. Existing methods randomly select subgraphs or edges as prompts, leading to noisy graph prompts and inferior model performance. Additionally, due to the gap between pre-training and testing graphs, when the number of classes in the testing graphs is much greater than that in the training, the in-context learning ability will also significantly deteriorate. To tackle the aforementioned challenges, we develop a multi-stage adaptive prompt optimization method GraphPrompter, which optimizes the entire process of generating, selecting, and using graph prompts for better in-context learning capabilities. Firstly, Prompt Generator introduces a reconstruction layer to highlight the most informative edges and reduce irrelevant noise for graph prompt construction. Furthermore, in the selection stage, Prompt Selector employs the $k$-nearest neighbors algorithm and pre-trained selection layers to dynamically choose appropriate samples and minimize the influence of irrelevant prompts. Finally, we leverage a Prompt Augmenter with a cache replacement strategy to enhance the generalization capability of the pre-trained model on new datasets. Extensive experiments show that GraphPrompter effectively enhances the in-context learning ability of graph models. On average across all the settings, our approach surpasses the state-of-the-art baselines by over 8%. Our code is released at https://github.com/karin0018/GraphPrompter.
- Abstract(参考訳): グラフ・イン・コンテキスト・ラーニング(Graph In-Context Learning)は、トレーニング済みのグラフモデルをパラメータを更新することなく、新しく多様な下流グラフに適応する機能を持つ。
コンテキスト内学習をグラフ化する鍵は、選択したプロンプトの例に基づいて下流グラフを実行することである。
既存の手法では、プロンプトとしてサブグラフやエッジをランダムに選択し、ノイズの多いグラフプロンプトとモデル性能が劣る。
さらに、事前学習とテストグラフのギャップのため、テストグラフのクラス数がトレーニングのクラスよりもはるかに多い場合、コンテキスト内学習能力も大幅に低下する。
上記の課題に対処するために,グラフプロンプトの生成,選択,使用のプロセス全体を最適化する多段階適応型プロンプト最適化法であるGraphPrompterを開発した。
第一に、Prompt Generatorは、最も情報性の高いエッジをハイライトし、グラフプロンプト構築の無関係なノイズを低減する再構成層を導入している。
さらに、選択段階では、Prompt Selectorは$k$-nearest neighborsアルゴリズムと事前訓練された選択層を使用して、適切なサンプルを動的に選択し、無関係なプロンプトの影響を最小限に抑える。
最後に, Prompt Augmenter をキャッシュ置換戦略で活用し,新しいデータセット上での事前学習モデルの一般化能力を向上する。
大規模な実験により、GraphPrompterはグラフモデルのコンテキスト内学習能力を効果的に向上することが示された。
すべての設定で平均して、私たちのアプローチは最先端のベースラインを8%以上越えています。
私たちのコードはhttps://github.com/karin0018/GraphPrompter.orgで公開されています。
関連論文リスト
- Edge Prompt Tuning for Graph Neural Networks [40.62424370491229]
本稿では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-03-02T06:07:54Z) - Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - ProG: A Graph Prompt Learning Benchmark [17.229372585695092]
グラフプロンプト学習が「プレトレイン・ファインチューン」に代わる有望な選択肢として登場
グラフプロンプト学習のための総合ベンチマークを初めて導入する。
本稿では,さまざまなグラフプロンプトモデルの実行を合理化する,使いやすいオープンソースライブラリである'ProG'を紹介する。
論文 参考訳(メタデータ) (2024-06-08T04:17:48Z) - Self-Pro: A Self-Prompt and Tuning Framework for Graph Neural Networks [10.794305560114903]
Self-Promptは、モデルとデータ自体に基づいたグラフのプロンプトフレームワークである。
非対称なグラフコントラスト学習を導入し、不均質に対処し、プリテキストと下流タスクの目的を整合させる。
11のベンチマークデータセットに対する広範な実験を行い、その優位性を実証する。
論文 参考訳(メタデータ) (2023-10-16T12:58:04Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - All in One: Multi-task Prompting for Graph Neural Networks [30.457491401821652]
本稿では,グラフモデルのための新しいマルチタスクプロンプト手法を提案する。
まず、グラフプロンプトと言語プロンプトのフォーマットを、プロンプトトークン、トークン構造、挿入パターンで統一する。
次に、様々なグラフアプリケーションのタスク空間を調査し、下流の問題をグラフレベルのタスクに再構成する。
論文 参考訳(メタデータ) (2023-07-04T06:27:31Z) - PRODIGY: Enabling In-context Learning Over Graphs [112.19056551153454]
コンテキスト内学習(In-context learning)とは、事前訓練されたモデルが、新しい多様な下流タスクに適応する能力である。
ProDIGYは,グラフ上でのコンテキスト内学習を可能にする最初の事前学習フレームワークである。
論文 参考訳(メタデータ) (2023-05-21T23:16:30Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Adversarial Graph Contrastive Learning with Information Regularization [51.14695794459399]
コントラスト学習はグラフ表現学習において有効な方法である。
グラフ上のデータ拡張は、はるかに直感的ではなく、高品質のコントラスト的なサンプルを提供するのがずっと難しい。
逆グラフ比較学習(Adversarial Graph Contrastive Learning, ARIEL)を提案する。
さまざまな実世界のデータセット上でのノード分類タスクにおいて、現在のグラフのコントラスト学習方法よりも一貫して優れています。
論文 参考訳(メタデータ) (2022-02-14T05:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。