論文の概要: Robust and Generalizable GNN Fine-Tuning via Uncertainty-aware Adapter Learning
- arxiv url: http://arxiv.org/abs/2511.18859v1
- Date: Mon, 24 Nov 2025 07:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.095627
- Title: Robust and Generalizable GNN Fine-Tuning via Uncertainty-aware Adapter Learning
- Title(参考訳): 不確実性認識型適応学習によるロバストかつ一般化可能なGNNファインチューニング
- Authors: Bo Jiang, Weijun Zhao, Beibei Wang, Xiao Wang, Jin Tang,
- Abstract要約: 既存のAdapterGNNは、しばしばグラフノイズの傾向があり、限定的な一般化性を示す。
本稿では,未学習のGNNモデルをノイズの多いグラフデータに対して強化する不確実性認識適応器(UAdapterGNN)を提案する。
- 参考スコア(独自算出の注目度): 19.46822060132462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, fine-tuning large-scale pre-trained GNNs has yielded remarkable attention in adapting pre-trained GNN models for downstream graph learning tasks. One representative fine-tuning method is to exploit adapter (termed AdapterGNN) which aims to 'augment' the pre-trained model by inserting a lightweight module to make the 'augmented' model better adapt to the downstream tasks. However, graph data may contain various types of noise in downstream tasks, such as noisy edges and ambiguous node attributes. Existing AdapterGNNs are often prone to graph noise and exhibit limited generalizability. How to enhance the robustness and generalization ability of GNNs' fine tuning remains an open problem. In this paper, we show that the above problem can be well addressed by integrating uncertainty learning into the GNN adapter. We propose the Uncertainty-aware Adapter (UAdapterGNN) that fortifies pre-trained GNN models against noisy graph data in the fine-tuning process. Specifically, in contrast to regular AdapterGNN, our UAdapterGNN exploits Gaussian probabilistic adapter to augment the pre-trained GNN model. In this way, when the graph contains various noises,our method can automatically absorb the effects of changes in the variances of the Gaussian distribution, thereby significantly enhancing the model's robustness. Also, UAdapterGNN can further improve the generalization ability of the model on the downstream tasks. Extensive experiments on several benchmarks demonstrate the effectiveness, robustness and high generalization ability of the proposed UAdapterGNN method.
- Abstract(参考訳): 近年,大規模な事前学習GNNの微調整により,下流グラフ学習タスクにおける事前学習GNNモデルの適用に注目が集まっている。
代表的な微調整手法の1つは、事前訓練されたモデルに軽量モジュールを挿入し、下流タスクに適応させることにより、事前訓練されたモデルを'拡張'することを目的としたアダプタ(termed AdapterGNN)を活用することである。
しかし、グラフデータには、ノイズの多いエッジやあいまいなノード属性など、下流タスクの様々な種類のノイズが含まれている可能性がある。
既存のAdapterGNNは、しばしばグラフノイズの傾向があり、限定的な一般化性を示す。
GNNの微調整の堅牢性と一般化能力をいかに向上させるかは、未解決の問題である。
本稿では,GNNアダプタに不確実性学習を統合することで,上記の問題に対処できることを述べる。
本稿では、未学習のGNNモデルに対して、微調整プロセスにおいてノイズの多いグラフデータに対して強化するUncertainty-aware Adapter (UAdapterGNN)を提案する。
具体的には、通常のAdapterGNNとは対照的に、UAdapterGNNはガウスの確率的アダプタを利用して、事前訓練されたGNNモデルを拡張する。
このように、グラフが様々なノイズを含む場合、この方法ではガウス分布の分散の変化の影響を自動的に吸収し、モデルのロバスト性を大幅に向上させることができる。
また、UAdapterGNNは、下流タスクにおけるモデルの一般化能力をさらに向上させることができる。
いくつかのベンチマークにおいて、提案したUAdapterGNN法の有効性、堅牢性、高一般化能力を示す。
関連論文リスト
- GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Label Deconvolution for Node Representation Learning on Large-scale Attributed Graphs against Learning Bias [72.33336385797944]
本稿では,学習バイアスを軽減するため,ラベルの効率的な正規化手法であるラベルデコンボリューション(LD)を提案する。
LDはOpen Graph Benchmarkデータセット上で最先端の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - AdapterGNN: Parameter-Efficient Fine-Tuning Improves Generalization in
GNNs [2.69499085779099]
本稿では,グラフニューラルネットワーク(GNN)におけるPEFT手法の包括的比較について述べる。
本稿では,GNN向けに設計された新しいPEFT手法であるAdapterGNNを提案する。
本稿では,AdapterGNNが他のPEFT法よりも高い性能を実現していることを示す。
論文 参考訳(メタデータ) (2023-04-19T12:00:15Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Universal Prompt Tuning for Graph Neural Networks [10.250964386142819]
我々は,任意の事前学習戦略の下で,事前学習したGNNモデルに対して,GPF(Graph Prompt Feature)と呼ばれる普遍的なプロンプトベースのチューニング手法を提案する。
GPFは入力グラフの特徴空間上で動作し、理論的には任意の形式のプロンプト関数に等価な効果を達成できる。
本手法は,事前学習戦略を応用したモデルに適用した場合,既存の特殊プロンプトベースのチューニング手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-09-30T05:19:27Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z) - Self-Enhanced GNN: Improving Graph Neural Networks Using Model Outputs [20.197085398581397]
グラフニューラルネットワーク(GNN)は最近、グラフベースのタスクにおける優れたパフォーマンスのために、多くの注目を集めている。
本稿では,既存のGNNモデルの出力を用いて,入力データの品質を向上させる自己強化型GNN(SEG)を提案する。
SEGは、GCN、GAT、SGCといったよく知られたGNNモデルのさまざまなデータセットのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2020-02-18T12:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。