論文の概要: Graph Prompting for Graph Learning Models: Recent Advances and Future Directions
- arxiv url: http://arxiv.org/abs/2506.08326v1
- Date: Tue, 10 Jun 2025 01:27:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.9696
- Title: Graph Prompting for Graph Learning Models: Recent Advances and Future Directions
- Title(参考訳): グラフ学習モデルのためのグラフプロンプティング:最近の進歩と今後の方向性
- Authors: Xingbo Fu, Zehong Wang, Zihan Chen, Jiazheng Li, Yaochen Zhu, Zhenyu Lei, Cong Shen, Yanfang Ye, Chuxu Zhang, Jundong Li,
- Abstract要約: 「事前学習・適応」スキームは、まずラベルなしグラフデータに基づくグラフ学習モデルを自己教師型で事前訓練する。
グラフプロンプトは、トレーニング可能なプロンプトを学習し、事前トレーニングされたグラフ学習モデルを変更しない、有望なアプローチとして出現する。
- 参考スコア(独自算出の注目度): 75.7773954442738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph learning models have demonstrated great prowess in learning expressive representations from large-scale graph data in a wide variety of real-world scenarios. As a prevalent strategy for training powerful graph learning models, the "pre-training, adaptation" scheme first pre-trains graph learning models on unlabeled graph data in a self-supervised manner and then adapts them to specific downstream tasks. During the adaptation phase, graph prompting emerges as a promising approach that learns trainable prompts while keeping the pre-trained graph learning models unchanged. In this paper, we present a systematic review of recent advancements in graph prompting. First, we introduce representative graph pre-training methods that serve as the foundation step of graph prompting. Next, we review mainstream techniques in graph prompting and elaborate on how they design learnable prompts for graph prompting. Furthermore, we summarize the real-world applications of graph prompting from different domains. Finally, we discuss several open challenges in existing studies with promising future directions in this field.
- Abstract(参考訳): グラフ学習モデルは、さまざまな実世界のシナリオにおいて、大規模グラフデータから表現表現を学習する上で大きな進歩を見せている。
強力なグラフ学習モデルを訓練するための一般的な戦略として、「事前学習、適応」スキームは、まずラベルなしグラフデータ上のグラフ学習モデルを自己教師付きで事前訓練し、その後、特定の下流タスクに適応させる。
適応フェーズの間、グラフプロンプトはトレーニング可能なプロンプトを学習し、事前訓練されたグラフ学習モデルを変更しない、有望なアプローチとして現れます。
本稿では,近年のグラフプロンプトの進歩を体系的に概観する。
まず,グラフプロンプトの基礎ステップとして機能する代表グラフ事前学習手法を紹介する。
次に、グラフプロンプトの主流技術について、グラフプロンプトの学習可能なプロンプトの設計方法について、詳しく検討する。
さらに、異なる領域からのグラフの実際の応用を要約する。
最後に,既存の研究におけるいくつかのオープンな課題について論じる。
関連論文リスト
- What Do LLMs Need to Understand Graphs: A Survey of Parametric Representation of Graphs [69.48708136448694]
大規模言語モデル(LLM)は、期待される推論能力と推論能力のために、AIコミュニティで再編成されている。
我々は、グラフのこのようなパラメトリック表現、グラフ法則は、LLMがグラフデータを入力として理解させるソリューションであると信じている。
論文 参考訳(メタデータ) (2024-10-16T00:01:31Z) - OpenGraph: Towards Open Graph Foundation Models [20.401374302429627]
グラフニューラルネットワーク(GNN)は、構造情報を符号化するための有望な技術として登場した。
主な課題は、異なる性質を持つグラフデータを一般化することの難しさである。
この課題に対処するために,OpenGraphと呼ばれる新しいグラフ基盤モデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T08:05:03Z) - A Survey of Graph Prompting Methods: Techniques, Applications, and
Challenges [25.32529044997131]
ラベル付きデータに制限のある一般化可能なモデルを学習する手段として,「事前訓練,プロンプト,予測訓練」が人気を集めている。
複雑なタスクにおいて、プロンプトの設計は困難で時間を要するプロセスになり得る。
この調査は、将来の方法論開発を促進するために、グラフと設計の間のギャップを埋める。
論文 参考訳(メタデータ) (2023-03-13T16:49:43Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Graph Learning and Its Advancements on Large Language Models: A Holistic Survey [37.01696685233113]
この調査は、グラフ学習と事前訓練された言語モデルの統合における最新の進歩に焦点を当てる。
グラフ構造の観点から現在の研究を解析し、グラフ学習における最新の応用、トレンド、課題について論じる。
論文 参考訳(メタデータ) (2022-12-17T22:05:07Z) - Data Augmentation for Deep Graph Learning: A Survey [66.04015540536027]
まず,グラフデータ拡張のための分類法を提案し,その拡張情報モダリティに基づいて関連研究を分類し,構造化されたレビューを提供する。
DGLにおける2つの課題(すなわち、最適グラフ学習と低リソースグラフ学習)に焦点を当て、グラフデータ拡張に基づく既存の学習パラダイムについて議論し、レビューする。
論文 参考訳(メタデータ) (2022-02-16T18:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。