論文の概要: Endowing Pre-trained Graph Models with Provable Fairness
- arxiv url: http://arxiv.org/abs/2402.12161v2
- Date: Tue, 20 Feb 2024 09:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 11:28:28.596422
- Title: Endowing Pre-trained Graph Models with Provable Fairness
- Title(参考訳): 確率的公正性を有する事前学習グラフモデル
- Authors: Zhongjian Zhang, Mengmei Zhang, Yue Yu, Cheng Yang, Jiawei Liu and
Chuan Shi
- Abstract要約: 証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
- 参考スコア(独自算出の注目度): 49.8431177748876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained graph models (PGMs) aim to capture transferable inherent
structural properties and apply them to different downstream tasks. Similar to
pre-trained language models, PGMs also inherit biases from human society,
resulting in discriminatory behavior in downstream applications. The debiasing
process of existing fair methods is generally coupled with parameter
optimization of GNNs. However, different downstream tasks may be associated
with different sensitive attributes in reality, directly employing existing
methods to improve the fairness of PGMs is inflexible and inefficient.
Moreover, most of them lack a theoretical guarantee, i.e., provable lower
bounds on the fairness of model predictions, which directly provides assurance
in a practical scenario. To overcome these limitations, we propose a novel
adapter-tuning framework that endows pre-trained graph models with provable
fairness (called GraphPAR). GraphPAR freezes the parameters of PGMs and trains
a parameter-efficient adapter to flexibly improve the fairness of PGMs in
downstream tasks. Specifically, we design a sensitive semantic augmenter on
node representations, to extend the node representations with different
sensitive attribute semantics for each node. The extended representations will
be used to further train an adapter, to prevent the propagation of sensitive
attribute semantics from PGMs to task predictions. Furthermore, with GraphPAR,
we quantify whether the fairness of each node is provable, i.e., predictions
are always fair within a certain range of sensitive attribute semantics.
Experimental evaluations on real-world datasets demonstrate that GraphPAR
achieves state-of-the-art prediction performance and fairness on node
classification task. Furthermore, based on our GraphPAR, around 90\% nodes have
provable fairness.
- Abstract(参考訳): 事前学習されたグラフモデル(PGM)は、転送可能な固有の構造特性をキャプチャして、異なる下流タスクに適用することを目的としている。
事前訓練された言語モデルと同様に、PGMは人間の社会からの偏見を継承し、下流の応用において差別的行動をもたらす。
既存のフェアメソッドのデバイアス処理は、一般的にGNNのパラメータ最適化と結合する。
しかし、異なる下流タスクは、実際には異なる感度特性に関連付けられ、PGMの公平性を改善するために既存の手法を直接活用することは、柔軟で非効率である。
さらに、そのほとんどは理論的な保証、すなわち、実用シナリオで直接保証を提供するモデル予測の公平性に関する証明可能な下限を欠いている。
これらの制限を克服するために,事前学習されたグラフモデルを公平に内包する新しいアダプタチューニングフレームワーク(graphpar)を提案する。
GraphPARはPGMのパラメータを凍結し、パラメータ効率のよいアダプタをトレーニングし、下流タスクにおけるPGMの公平性を柔軟に改善する。
具体的には,ノード表現に敏感なセマンティクス拡張器をデザインし,ノード表現を各ノードに対して異なる繊細な属性セマンティクスで拡張する。
拡張表現は、pgmからタスク予測への機密属性セマンティクスの伝播を防ぐため、アダプタのさらなるトレーニングに使用される。
さらに、GraphPARでは、各ノードの公平性が証明可能であるかどうかを定量化します。
実世界のデータセットに対する実験的評価は、GraphPARがノード分類タスクにおける最先端の予測性能と公平性を達成することを示す。
さらに、GraphPARに基づいて、約90%のノードが証明可能な公平性を持っています。
関連論文リスト
- HG-Adapter: Improving Pre-Trained Heterogeneous Graph Neural Networks with Dual Adapters [53.97380482341493]
事前学習, 即時学習」は, 事前学習したヘテロジニアスグラフニューラルネットワーク(HGNN)のチューニング性能を示す。
本稿では、2つの新しいアダプタと潜在的ラベル付きデータ拡張を組み合わせた統合フレームワークを提案し、事前学習されたHGNNモデルの一般化を改善する。
論文 参考訳(メタデータ) (2024-11-02T06:43:54Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Domain-wise Invariant Learning for Panoptic Scene Graph Generation [26.159312466958]
パノプティック・シーングラフ生成(PSG)は、オブジェクトの検出とそれに対応する関係(述語)の予測を含む。
偏見付き述語アノテーションの存在は、異なる述語間の明確な決定境界を確立する能力を妨げているため、PSGモデルにとって大きな課題となる。
本稿では,各対象物対内の予測予測リスクを測定することによって,潜在的なバイアスのあるアノテーションを推論する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:03:39Z) - G-Adapter: Towards Structure-Aware Parameter-Efficient Transfer Learning
for Graph Transformer Networks [0.7118812771905295]
特徴分布シフトの問題から,既存のPEFTをグラフベースタスクへ直接転送することが準最適であることを示す。
本稿では,G-Adapter という新しい構造対応PEFT手法を提案する。
大規模な実験により、G-Adapterは9つのグラフベンチマークデータセットと比較すると、最先端のパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2023-05-17T16:10:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Adaptive Graph-Based Feature Normalization for Facial Expression
Recognition [1.2246649738388389]
データ不確実性から表情認識モデルを保護するために,適応グラフに基づく特徴正規化(AGFN)手法を提案する。
我々の手法は、ベンチマークデータセットで91.84%、91.11%の精度で最先端の作業より優れています。
論文 参考訳(メタデータ) (2022-07-22T14:57:56Z) - From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
論文 参考訳(メタデータ) (2022-07-12T16:57:08Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。