論文の概要: GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2510.22451v1
- Date: Sat, 25 Oct 2025 22:50:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.203297
- Title: GraphTOP: Graph Topology-Oriented Prompting for Graph Neural Networks
- Title(参考訳): GraphTOP: グラフニューラルネットワークのためのグラフトポロジ指向プロンプト
- Authors: Xingbo Fu, Zhenyu Lei, Zihan Chen, Binchi Zhang, Chuxu Zhang, Jundong Li,
- Abstract要約: ラベルなしグラフデータよりも強力なグラフニューラルネットワーク(GNN)を事前学習する。
適応段階では、グラフプロンプトは学習可能なプロンプトで入力グラフデータを修正し、事前学習されたGNNモデルを凍結し続ける。
本稿では,事前学習したGNNモデルを下流タスクに効果的に適用するために,最初の**Graph****opology-**O**riented **P**rompting(GraphTOP)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 66.07512871031163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have revolutionized the field of graph learning by learning expressive graph representations from massive graph data. As a common pattern to train powerful GNNs, the "pre-training, adaptation" scheme first pre-trains GNNs over unlabeled graph data and subsequently adapts them to specific downstream tasks. In the adaptation phase, graph prompting is an effective strategy that modifies input graph data with learnable prompts while keeping pre-trained GNN models frozen. Typically, existing graph prompting studies mainly focus on *feature-oriented* methods that apply graph prompts to node features or hidden representations. However, these studies often achieve suboptimal performance, as they consistently overlook the potential of *topology-oriented* prompting, which adapts pre-trained GNNs by modifying the graph topology. In this study, we conduct a pioneering investigation of graph prompting in terms of graph topology. We propose the first **Graph** **T**opology-**O**riented **P**rompting (GraphTOP) framework to effectively adapt pre-trained GNN models for downstream tasks. More specifically, we reformulate topology-oriented prompting as an edge rewiring problem within multi-hop local subgraphs and relax it into the continuous probability space through reparameterization while ensuring tight relaxation and preserving graph sparsity. Extensive experiments on five graph datasets under four pre-training strategies demonstrate that our proposed GraphTOP outshines six baselines on multiple node classification datasets. Our code is available at https://github.com/xbfu/GraphTOP.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフデータから表現力のあるグラフ表現を学習することで,グラフ学習の分野に革命をもたらした。
強力なGNNを訓練する一般的なパターンとして、"事前学習、適応"スキームは、まずラベル付けされていないグラフデータ上でGNNを事前訓練し、その後、特定の下流タスクに適応させる。
適応段階において、グラフプロンプトは学習可能なプロンプトで入力グラフデータを修正し、事前学習したGNNモデルを凍結し続ける効果的な戦略である。
通常、既存のグラフプロンプト研究は主にノードの特徴や隠された表現にグラフプロンプトを適用する*機能指向の*メソッドに焦点を当てている。
しかしながら、これらの研究は、グラフトポロジを変更することで事前学習されたGNNに適応する*トポロジ指向の*プロンプトの可能性を常に見落としているため、しばしば準最適性能を達成する。
本研究では,グラフトポロジの観点からグラフプロンプトの先駆的な研究を行う。
本稿では,事前学習したGNNモデルを下流タスクに効果的に適用するために,最初の**Graph****opology-**O**riented **P**rompting(GraphTOP)フレームワークを提案する。
より具体的には、マルチホップ局所グラフにおけるエッジリウィリング問題としてトポロジ指向のプロンプトを再構成し、厳密な緩和とグラフ空間の保存を保ちながら、再パラメータ化により連続確率空間に緩和する。
4つの事前学習戦略の下での5つのグラフデータセットに対する大規模な実験により、提案したグラフTOPは、複数のノード分類データセット上で6つのベースラインを上回ります。
私たちのコードはhttps://github.com/xbfu/GraphTOP.orgで公開されています。
関連論文リスト
- Edge Prompt Tuning for Graph Neural Networks [40.62424370491229]
本稿では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-03-02T06:07:54Z) - A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - DiP-GNN: Discriminative Pre-Training of Graph Neural Networks [49.19824331568713]
GNNのパワーを高めるために,グラフニューラルネットワーク(GNN)事前学習法が提案されている。
一般的な事前トレーニング手法の1つは、エッジのパーセンテージをマスクアウトすることであり、GNNはそれらを回復するように訓練されている。
筆者らのフレームワークでは, 識別器が見るグラフは, マスキングエッジの比率を回復できるため, 元のグラフとよく一致している。
論文 参考訳(メタデータ) (2022-09-15T17:41:50Z) - Graph-level Neural Networks: Current Progress and Future Directions [61.08696673768116]
グラフレベルのニューラルネットワーク(GLNN、ディープラーニングベースのグラフレベルの学習法)は、高次元データのモデリングにおいて優れているため、魅力的である。
本稿では,深層ニューラルネットワーク,グラフニューラルネットワーク,グラフプール上でのGLNNを網羅する系統分類法を提案する。
論文 参考訳(メタデータ) (2022-05-31T06:16:55Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - Lifelong Graph Learning [6.282881904019272]
連続グラフ学習問題を正規グラフ学習問題に変換することにより、グラフ学習と生涯学習を橋渡しする。
機能グラフネットワーク(FGN)は,ウェアラブルデバイスを用いた生涯の人間行動認識と特徴マッチングという2つのアプリケーションにおいて,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-09-01T18:21:34Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。