論文の概要: HGMP:Heterogeneous Graph Multi-Task Prompt Learning
- arxiv url: http://arxiv.org/abs/2507.07405v1
- Date: Thu, 10 Jul 2025 04:01:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.264621
- Title: HGMP:Heterogeneous Graph Multi-Task Prompt Learning
- Title(参考訳): HGMP:異種グラフマルチタスクプロンプト学習
- Authors: Pengfei Jiao, Jialong Ni, Di Jin, Xuan Guo, Huan Liu, Hongjiang Chen, Yanxian Bi,
- Abstract要約: ヘテロジニアスグラフ領域のための新しいマルチタスクプロンプトフレームワークHGMPを提案する。
まず、事前訓練されたモデルと下流タスクのギャップを埋めるために、下流タスクを統一的なグラフレベルタスク形式に再構成する。
我々は,異種情報を活用し,マルチタスクシナリオの性能を向上させるために,グラフレベルのコントラスト事前学習戦略を設計する。
- 参考スコア(独自算出の注目度): 18.703129208282913
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pre-training and fine-tuning methods have gained widespread attention in the field of heterogeneous graph neural networks due to their ability to leverage large amounts of unlabeled data during the pre-training phase, allowing the model to learn rich structural features. However, these methods face the issue of a mismatch between the pre-trained model and downstream tasks, leading to suboptimal performance in certain application scenarios. Prompt learning methods have emerged as a new direction in heterogeneous graph tasks, as they allow flexible adaptation of task representations to address target inconsistency. Building on this idea, this paper proposes a novel multi-task prompt framework for the heterogeneous graph domain, named HGMP. First, to bridge the gap between the pre-trained model and downstream tasks, we reformulate all downstream tasks into a unified graph-level task format. Next, we address the limitations of existing graph prompt learning methods, which struggle to integrate contrastive pre-training strategies in the heterogeneous graph domain. We design a graph-level contrastive pre-training strategy to better leverage heterogeneous information and enhance performance in multi-task scenarios. Finally, we introduce heterogeneous feature prompts, which enhance model performance by refining the representation of input graph features. Experimental results on public datasets show that our proposed method adapts well to various tasks and significantly outperforms baseline methods.
- Abstract(参考訳): 事前学習と微調整の方法は、事前学習期間中に大量のラベルのないデータを活用できることから、不均一なグラフニューラルネットワークの分野において広く注目を集めており、モデルがリッチな構造的特徴を学習することができる。
しかしながら、これらのメソッドは、事前訓練されたモデルと下流タスクのミスマッチの問題に直面し、特定のアプリケーションシナリオにおいて最適なパフォーマンスをもたらす。
タスク表現の柔軟な適応が目的の不整合に対処できるため、不均一なグラフタスクにおいて、プロンプト学習手法が新たな方向性として登場した。
本稿では,HGMPという異種グラフ領域のための新しいマルチタスクプロンプトフレームワークを提案する。
まず、事前訓練されたモデルと下流タスクのギャップを埋めるために、下流タスクを統一的なグラフレベルタスク形式に再構成する。
次に、異種グラフ領域における対照的な事前学習戦略の統合に苦慮する既存のグラフプロンプト学習手法の限界に対処する。
我々は,異種情報を活用し,マルチタスクシナリオの性能を向上させるために,グラフレベルのコントラスト事前学習戦略を設計する。
最後に、入力グラフの特徴の表現を洗練することによりモデル性能を向上させるヘテロジニアスな特徴プロンプトを導入する。
その結果,提案手法は様々なタスクに適応し,ベースライン法よりも優れていた。
関連論文リスト
- Towards Graph Foundation Models: Learning Generalities Across Graphs via Task-Trees [50.78679002846741]
タスクツリーを用いたグラフのクロスタスク一般化のための新しい手法を提案する。
本稿では,グラフニューラルネットワーク(GNN)を多種多様なタスクツリー上で事前学習することにより,伝達可能な知識を誘導することを示す。
これにより、最小限の微調整で下流タスクに効率的に適応できる。
論文 参考訳(メタデータ) (2024-12-21T02:07:43Z) - Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - Can Graph Learning Improve Planning in LLM-based Agents? [61.47027387839096]
言語エージェントにおけるタスクプランニングは、大規模言語モデル(LLM)の開発とともに重要な研究トピックとして浮上している。
本稿では,課題計画のためのグラフ学習に基づく手法について検討する。
我々のグラフ学習への関心は、注意のバイアスと自己回帰的損失が、グラフ上の意思決定を効果的にナビゲートするLLMの能力を妨げているという理論的な発見に起因している。
論文 参考訳(メタデータ) (2024-05-29T14:26:24Z) - HetGPT: Harnessing the Power of Prompt Tuning in Pre-Trained Heterogeneous Graph Neural Networks [22.775933880072294]
HetGPTは、グラフニューラルネットワークのトレーニング後プロンプトフレームワークである。
半教師付きノード分類における最先端HGNNの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-23T19:35:57Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。