論文の概要: Robust Graph Fine-Tuning with Adversarial Graph Prompting
- arxiv url: http://arxiv.org/abs/2601.00229v1
- Date: Thu, 01 Jan 2026 06:20:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.327591
- Title: Robust Graph Fine-Tuning with Adversarial Graph Prompting
- Title(参考訳): 逆グラフプロンプトを用いたロバストグラフファインチューニング
- Authors: Ziyan Zhang, Bo Jiang, Jin Tang,
- Abstract要約: 本稿では,頑健なグラフ微調整を実現するための新しいAGP(Adversarial Graph Prompting)フレームワークを提案する。
内部では、強い対向雑音を生成するために、結合射影勾配 Descent (PGD) アルゴリズムを提案する。
外部では、最適なノードプロンプトを学習し、対向雑音に対処するために、単純だが効果的なモジュールを用いる。
- 参考スコア(独自算出の注目度): 14.478430685982028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parameter-Efficient Fine-Tuning (PEFT) method has emerged as a dominant paradigm for adapting pre-trained GNN models to downstream tasks. However, existing PEFT methods usually exhibit significant vulnerability to various noise and attacks on graph topology and node attributes/features. To address this issue, for the first time, we propose integrating adversarial learning into graph prompting and develop a novel Adversarial Graph Prompting (AGP) framework to achieve robust graph fine-tuning. Our AGP has two key aspects. First, we propose the general problem formulation of AGP as a min-max optimization problem and develop an alternating optimization scheme to solve it. For inner maximization, we propose Joint Projected Gradient Descent (JointPGD) algorithm to generate strong adversarial noise. For outer minimization, we employ a simple yet effective module to learn the optimal node prompts to counteract the adversarial noise. Second, we demonstrate that the proposed AGP can theoretically address both graph topology and node noise. This confirms the versatility and robustness of our AGP fine-tuning method across various graph noise. Note that, the proposed AGP is a general method that can be integrated with various pre-trained GNN models to enhance their robustness on the downstream tasks. Extensive experiments on multiple benchmark tasks validate the robustness and effectiveness of AGP method compared to state-of-the-art methods.
- Abstract(参考訳): パラメータ効率の良いファインチューニング(PEFT)法は,事前学習したGNNモデルを下流タスクに適応するための主流パラダイムとして登場した。
しかし、既存のPEFT法は、通常、様々なノイズやグラフトポロジーやノード属性/機能に対する攻撃に対して重大な脆弱性を示す。
この問題に対処するため,我々は,グラフの高速な微調整を実現するための新しいグラフプロンプティング(Adversarial Graph Prompting, AGP)フレームワークを初めて提案する。
AGPには2つの重要な側面があります。
まず,AGP を min-max 最適化問題として一般化し,その解法を交互に最適化する手法を提案する。
内部最大化のために,強い対向雑音を生成するジョイント・プロジェクテッド・グラディエント・ディフレッシュ (JointPGD) アルゴリズムを提案する。
外部最小化のために、最適なノードプロンプトを学習し、対向雑音に対処するために、単純で効果的なモジュールを用いる。
次に,提案したAGPが理論的にグラフトポロジとノードノイズの両方に対処可能であることを示す。
これにより,AGPファインチューニング手法の様々なグラフノイズに対する汎用性とロバスト性を確認した。
提案したAGPは,各種学習済みGNNモデルと統合して,下流タスクにおけるロバスト性を高めるための汎用手法である。
複数のベンチマークタスクに関する大規模な実験は、最先端の手法と比較してAGP法の堅牢性と有効性を検証する。
関連論文リスト
- Reliable and Compact Graph Fine-tuning via GraphSparse Prompting [24.381392096420402]
グラフプロンプトおよびグラフスパースプロンプト(GSP)におけるスパース表現理論の活用を提案する。
GSPは、下流タスクのコンパクトなプロンプトを達成するために最適な要素を適応的かつ簡潔に選択することを目的としている。
GSFP と GSmFP モデルを解くために、単純で効果的なアルゴリズムが設計された。
論文 参考訳(メタデータ) (2024-10-29T05:31:14Z) - Towards Faster Graph Partitioning via Pre-training and Inductive Inference [7.962080448174845]
本稿では, PR-GPT (Pre-trained and Refined Graph ParTitioning) を提案する。
PR-GPTは、スクラッチから精錬法を実行する場合と比較して、大幅な品質劣化を伴わずに、大規模グラフ上でGPを高速化することができる。
論文 参考訳(メタデータ) (2024-09-01T09:11:34Z) - A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - Gradient Gating for Deep Multi-Rate Learning on Graphs [62.25886489571097]
グラフニューラルネットワーク(GNN)の性能向上のための新しいフレームワークであるグラディエントゲーティング(G$2$)を提案する。
我々のフレームワークは,GNN層の出力を,基盤となるグラフのノード間でのメッセージパッシング情報のマルチレートフローのメカニズムでゲーティングすることに基づいている。
論文 参考訳(メタデータ) (2022-10-02T13:19:48Z) - Universal Prompt Tuning for Graph Neural Networks [10.250964386142819]
我々は,任意の事前学習戦略の下で,事前学習したGNNモデルに対して,GPF(Graph Prompt Feature)と呼ばれる普遍的なプロンプトベースのチューニング手法を提案する。
GPFは入力グラフの特徴空間上で動作し、理論的には任意の形式のプロンプト関数に等価な効果を達成できる。
本手法は,事前学習戦略を応用したモデルに適用した場合,既存の特殊プロンプトベースのチューニング手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-09-30T05:19:27Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Incremental Ensemble Gaussian Processes [53.3291389385672]
本稿では,EGPメタラーナーがGP学習者のインクリメンタルアンサンブル(IE-) GPフレームワークを提案し,それぞれが所定のカーネル辞書に属するユニークなカーネルを持つ。
各GP専門家は、ランダムな特徴ベースの近似を利用してオンライン予測とモデル更新を行い、そのスケーラビリティを生かし、EGPメタラーナーはデータ適応重みを生かし、熟練者ごとの予測を合成する。
新たなIE-GPは、EGPメタラーナーおよび各GP学習者内における構造化力学をモデル化することにより、時間変化関数に対応するように一般化される。
論文 参考訳(メタデータ) (2021-10-13T15:11:25Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。