論文の概要: MAGPrompt: Message-Adaptive Graph Prompt Tuning for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.05567v1
- Date: Thu, 05 Feb 2026 11:39:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.908694
- Title: MAGPrompt: Message-Adaptive Graph Prompt Tuning for Graph Neural Networks
- Title(参考訳): MAGPrompt: グラフニューラルネットワークのためのメッセージ適応型グラフプロンプトチューニング
- Authors: Long D. Nguyen, Binh P. Nguyen,
- Abstract要約: グラフニューラルネットワーク(GNN)の転送は良好だが、事前学習対象とタスク要件のミスマッチのため、下流タスクに適応することは難しい。
本稿では,メッセージパッシングステップに学習可能なプロンプトを注入し,隣接するメッセージを再重み付けし,メッセージアグリゲーション中にタスク固有のプロンプトベクトルを追加するメッセージ適応型グラフプロンプトチューニングを提案する。
多様なノードレベルのデータセットとグラフレベルのデータセットの実験では、以前のグラフプロンプトメソッドを数ショット設定で一貫したゲインを示しながら、フルショットレギュレーションでの微調整とパフォーマンスの競争性を達成している。
- 参考スコア(独自算出の注目度): 1.6242924916178285
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Pre-trained graph neural networks (GNNs) transfer well, but adapting them to downstream tasks remains challenging due to mismatches between pre-training objectives and task requirements. Graph prompt tuning offers a parameter-efficient alternative to fine-tuning, yet most methods only modify inputs or representations and leave message passing unchanged, limiting their ability to adapt neighborhood interactions. We propose message-adaptive graph prompt tuning, which injects learnable prompts into the message passing step to reweight incoming neighbor messages and add task-specific prompt vectors during message aggregation, while keeping the backbone GNN frozen. The approach is compatible with common GNN backbones and pre-training strategies, and applicable across downstream settings. Experiments on diverse node- and graph-level datasets show consistent gains over prior graph prompting methods in few-shot settings, while achieving performance competitive with fine-tuning in full-shot regimes.
- Abstract(参考訳): 事前学習されたグラフニューラルネットワーク(GNN)の転送は良好だが、事前学習対象とタスク要件のミスマッチのため、下流タスクへの適応は依然として難しい。
グラフプロンプトチューニングは、微調整に代わるパラメータ効率の良い代替手段を提供するが、ほとんどのメソッドは入力や表現を変更せずにメッセージパッシングを変更せず、近隣のインタラクションを適応する能力を制限する。
本稿では,学習可能なプロンプトをメッセージパッシングステップに注入し,メッセージアグリゲーション中にタスク固有のプロンプトベクターを追加し,バックボーンGNNを凍結させながら,メッセージパッシングステップにメッセージ適応型グラフプロンプトチューニングを提案する。
このアプローチは一般的なGNNバックボーンや事前トレーニング戦略と互換性があり、下流設定を越えて適用できる。
多様なノードレベルのデータセットとグラフレベルのデータセットの実験では、以前のグラフプロンプトメソッドを数ショット設定で一貫したゲインを示しながら、フルショットレシエーションでの微調整とパフォーマンスの競争性を達成している。
関連論文リスト
- Semi-supervised Instruction Tuning for Large Language Models on Text-Attributed Graphs [62.544129365882014]
本稿では,SIT-Graph というグラフ学習用セミ教師付きインストラクションチューニングパイプラインを提案する。
SIT-Graphはモデルに依存しず、LSMを予測子として利用するグラフ命令チューニングメソッドにシームレスに統合することができる。
SIT-Graphは、最先端グラフチューニング手法に組み込むと、テキスト分散グラフベンチマークの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-01-19T08:10:53Z) - Adaptive Dual Prompting: Hierarchical Debiasing for Fairness-aware Graph Neural Networks [48.53089517358632]
本稿では,事前学習したGNNモデルを下流タスクに適用するための公平性を向上する適応型デュアルプロンプト(ADPrompt)フレームワークを提案する。
我々は,ADPromptの性能を評価するために,4つの事前学習戦略を用いた4つのデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2025-10-27T16:07:36Z) - GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks [66.07512871031163]
ラベルなしグラフデータよりも強力なグラフニューラルネットワーク(GNN)を事前学習する。
適応段階では、グラフプロンプトは学習可能なプロンプトで入力グラフデータを修正し、事前学習されたGNNモデルを凍結し続ける。
本稿では,事前学習したGNNモデルを下流タスクに効果的に適用するために,最初の**Graph****opology-**O**riented **P**rompting(GraphTOP)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-25T22:50:12Z) - Unsupervised Prompting for Graph Neural Networks [3.2752005091619076]
本稿では,GNNのプロンプト手法を評価するための問題設定を提案する。
擬似ラベルによる整合性正規化に基づく完全教師なしプロンプト手法を提案する。
我々の教師なしのアプローチは、ラベルにアクセス可能な最先端のプロンプト手法よりも優れています。
論文 参考訳(メタデータ) (2025-05-22T17:03:20Z) - Edge Prompt Tuning for Graph Neural Networks [40.62424370491229]
本稿では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-03-02T06:07:54Z) - DAGPrompT: Pushing the Limits of Graph Prompting with a Distribution-aware Graph Prompt Tuning Approach [36.29151413055608]
グラフプロンプト法はヘテロフィリーグラフのような複雑なグラフと競合する。
本稿では,グラフプロンプト法を複雑グラフに適用する上での2つの重要な課題について述べる。
本稿では,これらの課題を克服するために,分散対応グラフプロンプトチューニング(DAGPrompT)を提案する。
論文 参考訳(メタデータ) (2025-01-25T08:53:42Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。