論文の概要: One Fits All: Learning Fair Graph Neural Networks for Various Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2406.13544v1
- Date: Wed, 19 Jun 2024 13:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 19:43:36.524875
- Title: One Fits All: Learning Fair Graph Neural Networks for Various Sensitive Attributes
- Title(参考訳): グラフニューラルネットワークを学習して、さまざまな属性を学習する
- Authors: Yuchang Zhu, Jintang Li, Yatao Bian, Zibin Zheng, Liang Chen,
- Abstract要約: 不変学習,すなわちFairINVに基づくグラフフェアネスフレームワークを提案する。
FairINVはセンシティブな属性分割を取り入れ、ラベルと各種のセンシティブな属性の間の急激な相関を排除し、公正なGNNを訓練する。
いくつかの実世界のデータセットの実験結果から、FairINVは最先端のフェアネスアプローチを著しく上回っていることが示されている。
- 参考スコア(独自算出の注目度): 40.57757706386367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have highlighted fairness issues in Graph Neural Networks (GNNs), where they produce discriminatory predictions against specific protected groups categorized by sensitive attributes such as race and age. While various efforts to enhance GNN fairness have made significant progress, these approaches are often tailored to specific sensitive attributes. Consequently, they necessitate retraining the model from scratch to accommodate changes in the sensitive attribute requirement, resulting in high computational costs. To gain deeper insights into this issue, we approach the graph fairness problem from a causal modeling perspective, where we identify the confounding effect induced by the sensitive attribute as the underlying reason. Motivated by this observation, we formulate the fairness problem in graphs from an invariant learning perspective, which aims to learn invariant representations across environments. Accordingly, we propose a graph fairness framework based on invariant learning, namely FairINV, which enables the training of fair GNNs to accommodate various sensitive attributes within a single training session. Specifically, FairINV incorporates sensitive attribute partition and trains fair GNNs by eliminating spurious correlations between the label and various sensitive attributes. Experimental results on several real-world datasets demonstrate that FairINV significantly outperforms state-of-the-art fairness approaches, underscoring its effectiveness. Our code is available via: https://github.com/ZzoomD/FairINV/.
- Abstract(参考訳): 近年の研究では、グラフニューラルネットワーク(GNN)において、人種や年齢などのセンシティブな属性によって分類された特定の保護されたグループに対して差別的な予測を行う、公平性の問題が強調されている。
GNNの公平性を高めるための様々な取り組みは大きな進歩を遂げてきたが、これらのアプローチは特定の機密属性に合わせて調整されることが多い。
結果として、機密属性要求の変化に対応するために、スクラッチからモデルを再トレーニングする必要があるため、計算コストが高い。
この問題についてより深い知見を得るため、因果モデリングの観点からグラフフェアネス問題にアプローチし、センシティブな属性によって引き起こされる共起効果を根本原因とみなす。
この観察に動機づけられて、不変学習の観点からグラフの公正性問題を定式化し、環境間の不変表現を学習することを目的とした。
そこで本研究では,FairINVという不変学習に基づくグラフフェアネスフレームワークを提案する。
具体的には、FairINVはセンシティブな属性分割を取り入れ、ラベルと各種のセンシティブな属性の間の急激な相関を排除して、公正なGNNを訓練する。
いくつかの実世界のデータセットの実験結果から、FairINVは最先端のフェアネスアプローチを著しく上回り、その効果を裏付けることが示された。
私たちのコードは、https://github.com/ZzoomD/FairINV/.comから入手可能です。
関連論文リスト
- Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Fair Graph Neural Network with Supervised Contrastive Regularization [12.666235467177131]
公平性を考慮したグラフニューラルネットワーク(GNN)の学習モデルを提案する。
提案手法は, コントラスト損失と環境損失を統合し, 精度と公正性を両立させる。
論文 参考訳(メタデータ) (2024-04-09T07:49:05Z) - High-Discriminative Attribute Feature Learning for Generalized Zero-Shot Learning [54.86882315023791]
一般化ゼロショット学習(HDAFL)のための高識別属性特徴学習(High-Discriminative Attribute Feature Learning)という革新的な手法を提案する。
HDAFLは複数の畳み込みカーネルを使用して、画像の属性と高い相関性を持つ識別領域を自動的に学習する。
また、属性間の識別能力を高めるために、Transformerベースの属性識別エンコーダを導入する。
論文 参考訳(メタデータ) (2024-04-07T13:17:47Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - You Can Still Achieve Fairness Without Sensitive Attributes: Exploring
Biases in Non-Sensitive Features [29.94644351343916]
本稿では,これらの特徴を同時利用して正確な予測とモデルの正則化を行う新しいフレームワークを提案する。
実世界のデータセットにおける実験結果は,提案モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-04-29T17:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。