論文の概要: Robust and Generalizable GNN Fine-Tuning via Uncertainty-aware Adapter Learning
- arxiv url: http://arxiv.org/abs/2511.18859v1
- Date: Mon, 24 Nov 2025 07:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.095627
- Title: Robust and Generalizable GNN Fine-Tuning via Uncertainty-aware Adapter Learning
- Title(参考訳): 不確実性認識型適応学習によるロバストかつ一般化可能なGNNファインチューニング
- Authors: Bo Jiang, Weijun Zhao, Beibei Wang, Xiao Wang, Jin Tang,
- Abstract要約: 既存のAdapterGNNは、しばしばグラフノイズの傾向があり、限定的な一般化性を示す。
本稿では,未学習のGNNモデルをノイズの多いグラフデータに対して強化する不確実性認識適応器(UAdapterGNN)を提案する。
- 参考スコア(独自算出の注目度): 19.46822060132462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, fine-tuning large-scale pre-trained GNNs has yielded remarkable attention in adapting pre-trained GNN models for downstream graph learning tasks. One representative fine-tuning method is to exploit adapter (termed AdapterGNN) which aims to 'augment' the pre-trained model by inserting a lightweight module to make the 'augmented' model better adapt to the downstream tasks. However, graph data may contain various types of noise in downstream tasks, such as noisy edges and ambiguous node attributes. Existing AdapterGNNs are often prone to graph noise and exhibit limited generalizability. How to enhance the robustness and generalization ability of GNNs' fine tuning remains an open problem. In this paper, we show that the above problem can be well addressed by integrating uncertainty learning into the GNN adapter. We propose the Uncertainty-aware Adapter (UAdapterGNN) that fortifies pre-trained GNN models against noisy graph data in the fine-tuning process. Specifically, in contrast to regular AdapterGNN, our UAdapterGNN exploits Gaussian probabilistic adapter to augment the pre-trained GNN model. In this way, when the graph contains various noises,our method can automatically absorb the effects of changes in the variances of the Gaussian distribution, thereby significantly enhancing the model's robustness. Also, UAdapterGNN can further improve the generalization ability of the model on the downstream tasks. Extensive experiments on several benchmarks demonstrate the effectiveness, robustness and high generalization ability of the proposed UAdapterGNN method.
- Abstract(参考訳): 近年,大規模な事前学習GNNの微調整により,下流グラフ学習タスクにおける事前学習GNNモデルの適用に注目が集まっている。
代表的な微調整手法の1つは、事前訓練されたモデルに軽量モジュールを挿入し、下流タスクに適応させることにより、事前訓練されたモデルを'拡張'することを目的としたアダプタ(termed AdapterGNN)を活用することである。
しかし、グラフデータには、ノイズの多いエッジやあいまいなノード属性など、下流タスクの様々な種類のノイズが含まれている可能性がある。
既存のAdapterGNNは、しばしばグラフノイズの傾向があり、限定的な一般化性を示す。
GNNの微調整の堅牢性と一般化能力をいかに向上させるかは、未解決の問題である。
本稿では,GNNアダプタに不確実性学習を統合することで,上記の問題に対処できることを述べる。
本稿では、未学習のGNNモデルに対して、微調整プロセスにおいてノイズの多いグラフデータに対して強化するUncertainty-aware Adapter (UAdapterGNN)を提案する。
具体的には、通常のAdapterGNNとは対照的に、UAdapterGNNはガウスの確率的アダプタを利用して、事前訓練されたGNNモデルを拡張する。
このように、グラフが様々なノイズを含む場合、この方法ではガウス分布の分散の変化の影響を自動的に吸収し、モデルのロバスト性を大幅に向上させることができる。
また、UAdapterGNNは、下流タスクにおけるモデルの一般化能力をさらに向上させることができる。
いくつかのベンチマークにおいて、提案したUAdapterGNN法の有効性、堅牢性、高一般化能力を示す。
関連論文リスト
- Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Label Deconvolution for Node Representation Learning on Large-scale Attributed Graphs against Learning Bias [72.33336385797944]
本稿では,学習バイアスを軽減するため,ラベルの効率的な正規化手法であるラベルデコンボリューション(LD)を提案する。
LDはOpen Graph Benchmarkデータセット上で最先端の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - AdapterGNN: Parameter-Efficient Fine-Tuning Improves Generalization in
GNNs [2.69499085779099]
本稿では,グラフニューラルネットワーク(GNN)におけるPEFT手法の包括的比較について述べる。
本稿では,GNN向けに設計された新しいPEFT手法であるAdapterGNNを提案する。
本稿では,AdapterGNNが他のPEFT法よりも高い性能を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-19T12:00:15Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Universal Prompt Tuning for Graph Neural Networks [10.250964386142819]
我々は,任意の事前学習戦略の下で,事前学習したGNNモデルに対して,GPF(Graph Prompt Feature)と呼ばれる普遍的なプロンプトベースのチューニング手法を提案する。
GPFは入力グラフの特徴空間上で動作し、理論的には任意の形式のプロンプト関数に等価な効果を達成できる。
本手法は,事前学習戦略を応用したモデルに適用した場合,既存の特殊プロンプトベースのチューニング手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-09-30T05:19:27Z) - Robust Graph Neural Networks using Weighted Graph Laplacian [1.8292714902548342]
グラフニューラルネットワーク(GNN)は、入力データにおけるノイズや敵攻撃に対して脆弱である。
重み付きラプラシアンGNN(RWL-GNN)として知られるGNNの強化のための汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:36:35Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。