論文の概要: Edge Prompt Tuning for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2503.00750v1
- Date: Sun, 02 Mar 2025 06:07:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:23:07.174315
- Title: Edge Prompt Tuning for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのエッジプロンプトチューニング
- Authors: Xingbo Fu, Yinhan He, Jundong Li,
- Abstract要約: 本稿では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性がある。
- 参考スコア(独自算出の注目度): 40.62424370491229
- License:
- Abstract: Pre-training powerful Graph Neural Networks (GNNs) with unlabeled graph data in a self-supervised manner has emerged as a prominent technique in recent years. However, inevitable objective gaps often exist between pre-training and downstream tasks. To bridge this gap, graph prompt tuning techniques design and learn graph prompts by manipulating input graphs or reframing downstream tasks as pre-training tasks without fine-tuning the pre-trained GNN models. While recent graph prompt tuning methods have proven effective in adapting pre-trained GNN models for downstream tasks, they overlook the crucial role of edges in graph prompt design, which can significantly affect the quality of graph representations for downstream tasks. In this study, we propose EdgePrompt, a simple yet effective graph prompt tuning method from the perspective of edges. Unlike previous studies that design prompt vectors on node features, EdgePrompt manipulates input graphs by learning additional prompt vectors for edges and incorporates the edge prompts through message passing in the pre-trained GNN models to better embed graph structural information for downstream tasks. Our method is compatible with prevalent GNN architectures pre-trained under various pre-training strategies and is universal for different downstream tasks. We provide comprehensive theoretical analyses of our method regarding its capability of handling node classification and graph classification as downstream tasks. Extensive experiments on ten graph datasets under four pre-training strategies demonstrate the superiority of our proposed method against six baselines. Our code is available at https://github.com/xbfu/EdgePrompt.
- Abstract(参考訳): 近年,ラベルのないグラフデータを自己教師付きで学習する強力なグラフニューラルネットワーク(GNN)が注目されている。
しかしながら、事前学習と下流タスクの間には避けられない客観的ギャップがしばしば存在する。
このギャップを埋めるために、グラフプロンプトチューニング技術は、事前訓練されたGNNモデルを微調整することなく、入力グラフを操作したり、下流タスクを事前訓練タスクとしてリフレーミングすることでグラフプロンプトの設計と学習を行う。
最近のグラフプロンプトチューニング手法は、下流タスクに事前訓練されたGNNモデルを適用するのに有効であることが証明されているが、グラフプロンプト設計におけるエッジの重要な役割を見落としており、下流タスクにグラフ表現の質に大きな影響を与える可能性がある。
本研究では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
ノード機能上のプロンプトベクターを設計する以前の研究とは異なり、EdgePromptはエッジ用の追加のプロンプトベクターを学習して入力グラフを操作し、事前訓練されたGNNモデルでのメッセージパッシングを通じてエッジプロンプトを組み込んで、下流タスクのためのグラフ構造情報をよりうまく埋め込む。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性があり,下流タスクに共通である。
ノード分類とグラフ分類を下流タスクとして扱う能力について,本手法の包括的な理論的解析を行った。
4つの事前学習戦略に基づく10個のグラフデータセットの大規模な実験により,提案手法が6つの基準線に対して優れていることを示す。
私たちのコードはhttps://github.com/xbfu/EdgePrompt.comから入手可能です。
関連論文リスト
- A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - Inductive Graph Alignment Prompt: Bridging the Gap between Graph
Pre-training and Inductive Fine-tuning From Spectral Perspective [13.277779426525056]
グラフ事前学習と微調整」パラダイムはグラフニューラルネットワーク(GNN)を大幅に改善した
しかし、事前学習と微調整の段階でのデータとタスクの差が大きいため、モデルの性能は依然として限られている。
Inductive Graph Alignment Prompt(IGAP)と呼ばれる新しいグラフプロンプト方式を提案する。
論文 参考訳(メタデータ) (2024-02-21T06:25:54Z) - HetGPT: Harnessing the Power of Prompt Tuning in Pre-Trained Heterogeneous Graph Neural Networks [22.775933880072294]
HetGPTは、グラフニューラルネットワークのトレーニング後プロンプトフレームワークである。
半教師付きノード分類における最先端HGNNの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-23T19:35:57Z) - Self-Pro: A Self-Prompt and Tuning Framework for Graph Neural Networks [10.794305560114903]
Self-Promptは、モデルとデータ自体に基づいたグラフのプロンプトフレームワークである。
非対称なグラフコントラスト学習を導入し、不均質に対処し、プリテキストと下流タスクの目的を整合させる。
11のベンチマークデータセットに対する広範な実験を行い、その優位性を実証する。
論文 参考訳(メタデータ) (2023-10-16T12:58:04Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。