論文の概要: Adaptive Dual Prompting: Hierarchical Debiasing for Fairness-aware Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2510.23469v1
- Date: Mon, 27 Oct 2025 16:07:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.624022
- Title: Adaptive Dual Prompting: Hierarchical Debiasing for Fairness-aware Graph Neural Networks
- Title(参考訳): Adaptive Dual Prompting:Fairness-Aware Graph Neural Networksのための階層的デバイアス
- Authors: Yuhan Yang, Xingbo Fu, Jundong Li,
- Abstract要約: 本稿では,事前学習したGNNモデルを下流タスクに適用するための公平性を向上する適応型デュアルプロンプト(ADPrompt)フレームワークを提案する。
我々は,ADPromptの性能を評価するために,4つの事前学習戦略を用いた4つのデータセットに関する広範な実験を行った。
- 参考スコア(独自算出の注目度): 48.53089517358632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, pre-training Graph Neural Networks (GNNs) through self-supervised learning on unlabeled graph data has emerged as a widely adopted paradigm in graph learning. Although the paradigm is effective for pre-training powerful GNN models, the objective gap often exists between pre-training and downstream tasks. To bridge this gap, graph prompting adapts pre-trained GNN models to specific downstream tasks with extra learnable prompts while keeping the pre-trained GNN models frozen. As recent graph prompting methods largely focus on enhancing model utility on downstream tasks, they often overlook fairness concerns when designing prompts for adaptation. In fact, pre-trained GNN models will produce discriminative node representations across demographic subgroups, as downstream graph data inherently contains biases in both node attributes and graph structures. To address this issue, we propose an Adaptive Dual Prompting (ADPrompt) framework that enhances fairness for adapting pre-trained GNN models to downstream tasks. To mitigate attribute bias, we design an Adaptive Feature Rectification module that learns customized attribute prompts to suppress sensitive information at the input layer, reducing bias at the source. Afterward, we propose an Adaptive Message Calibration module that generates structure prompts at each layer, which adjust the message from neighboring nodes to enable dynamic and soft calibration of the information flow. Finally, ADPrompt jointly optimizes the two prompting modules to adapt the pre-trained GNN while enhancing fairness. We conduct extensive experiments on four datasets with four pre-training strategies to evaluate the performance of ADPrompt. The results demonstrate that our proposed ADPrompt outperforms seven baseline methods on node classification tasks.
- Abstract(参考訳): 近年,グラフ学習のパラダイムとしてグラフニューラルネットワーク(GNN)が広く採用されている。
このパラダイムは、強力なGNNモデルの事前学習に有効であるが、事前学習と下流タスクの間には、客観的なギャップがしばしば存在する。
このギャップを埋めるために、グラフプロンプトは、トレーニング済みのGNNモデルを凍結したまま、学習可能なプロンプトで特定の下流タスクに適応する。
最近のグラフプロンプト手法は、下流タスクにおけるモデルユーティリティの強化に重点を置いているため、適応のためのプロンプトを設計する際には、しばしば公平さの懸念を見落としている。
実際に、事前訓練されたGNNモデルは、下流グラフデータが本質的にノード属性とグラフ構造の両方にバイアスを含むため、階層的なサブグループ間で差別的なノード表現を生成する。
この問題に対処するため,我々は,事前学習したGNNモデルを下流タスクに適応するための公平性を高めるためのAdaptive Dual Prompting (ADPrompt) フレームワークを提案する。
属性バイアスを軽減するために,属性のカスタマイズしたプロンプトを学習するAdaptive Feature Rectificationモジュールを設計し,入力層におけるセンシティブな情報を抑制し,ソースのバイアスを低減する。
その後、各層で構造プロンプトを生成する適応メッセージキャリブレーションモジュールを提案し、近隣ノードからのメッセージを調整し、情報フローの動的かつソフトな校正を可能にする。
最後に、ADPromptは2つのプロンプトモジュールを協調的に最適化し、事前訓練されたGNNに適応し、公平性を高める。
我々は,ADPromptの性能を評価するために,4つの事前学習戦略を用いた4つのデータセットに関する広範な実験を行った。
その結果,提案するADPromptはノード分類タスクにおいて7つのベースライン法より優れていた。
関連論文リスト
- Unsupervised Prompting for Graph Neural Networks [3.2752005091619076]
本稿では,GNNのプロンプト手法を評価するための問題設定を提案する。
擬似ラベルによる整合性正規化に基づく完全教師なしプロンプト手法を提案する。
我々の教師なしのアプローチは、ラベルにアクセス可能な最先端のプロンプト手法よりも優れています。
論文 参考訳(メタデータ) (2025-05-22T17:03:20Z) - Edge Prompt Tuning for Graph Neural Networks [40.62424370491229]
本稿では,エッジの観点からの簡易かつ効果的なグラフプロンプトチューニング手法であるEdgePromptを提案する。
本手法は,各種事前学習戦略の下で事前学習したGNNアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-03-02T06:07:54Z) - A Unified Graph Selective Prompt Learning for Graph Neural Networks [20.595782116049428]
Graph Prompt Feature(GPF)は、Graph Neural Networks(GNN)のトレーニング済みモデルを適応することに成功した。
GNNファインチューニングのための新しいグラフ選択型プロンプト特徴学習(GSPF)を提案する。
論文 参考訳(メタデータ) (2024-06-15T04:36:40Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Label Deconvolution for Node Representation Learning on Large-scale Attributed Graphs against Learning Bias [72.33336385797944]
本稿では,学習バイアスを軽減するため,ラベルの効率的な正規化手法であるラベルデコンボリューション(LD)を提案する。
LDはOpen Graph Benchmarkデータセット上で最先端の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Universal Prompt Tuning for Graph Neural Networks [10.250964386142819]
我々は,任意の事前学習戦略の下で,事前学習したGNNモデルに対して,GPF(Graph Prompt Feature)と呼ばれる普遍的なプロンプトベースのチューニング手法を提案する。
GPFは入力グラフの特徴空間上で動作し、理論的には任意の形式のプロンプト関数に等価な効果を達成できる。
本手法は,事前学習戦略を応用したモデルに適用した場合,既存の特殊プロンプトベースのチューニング手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2022-09-30T05:19:27Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。