論文の概要: Fair Graph Representation Learning via Sensitive Attribute Disentanglement
- arxiv url: http://arxiv.org/abs/2405.07011v1
- Date: Sat, 11 May 2024 13:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 18:57:41.824993
- Title: Fair Graph Representation Learning via Sensitive Attribute Disentanglement
- Title(参考訳): 感性属性の絡み合いによる公正なグラフ表現学習
- Authors: Yuchang Zhu, Jintang Li, Zibin Zheng, Liang Chen,
- Abstract要約: グラフニューラルネットワーク(GNN)のグループの公正性は、機密属性によって定義された特定のグループを好ましくも害もしないアルゴリズム的な決定を強調する。
この目的を達成するために、既存のほとんどのアプローチでは、ノード表現やアルゴリズムによる決定において、機密属性情報を排除している。
本研究では,タスク関連情報を保存しながら,GNNの公平性を向上することに焦点を当て,FairSADという公正なGNNフレームワークを提案する。
- 参考スコア(独自算出の注目度): 32.194406379155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group fairness for Graph Neural Networks (GNNs), which emphasizes algorithmic decisions neither favoring nor harming certain groups defined by sensitive attributes (e.g., race and gender), has gained considerable attention. In particular, the objective of group fairness is to ensure that the decisions made by GNNs are independent of the sensitive attribute. To achieve this objective, most existing approaches involve eliminating sensitive attribute information in node representations or algorithmic decisions. However, such ways may also eliminate task-related information due to its inherent correlation with the sensitive attribute, leading to a sacrifice in utility. In this work, we focus on improving the fairness of GNNs while preserving task-related information and propose a fair GNN framework named FairSAD. Instead of eliminating sensitive attribute information, FairSAD enhances the fairness of GNNs via Sensitive Attribute Disentanglement (SAD), which separates the sensitive attribute-related information into an independent component to mitigate its impact. Additionally, FairSAD utilizes a channel masking mechanism to adaptively identify the sensitive attribute-related component and subsequently decorrelates it. Overall, FairSAD minimizes the impact of the sensitive attribute on GNN outcomes rather than eliminating sensitive attributes, thereby preserving task-related information associated with the sensitive attribute. Furthermore, experiments conducted on several real-world datasets demonstrate that FairSAD outperforms other state-of-the-art methods by a significant margin in terms of both fairness and utility performance. Our source code is available at https://github.com/ZzoomD/FairSAD.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)に対するグループフェアネス(グループフェアネス)は、センシティブな属性(例えば、人種や性別)によって定義された特定のグループを好ましくも害もしないアルゴリズム的な決定を強調している。
特に、グループフェアネスの目的は、GNNによる決定がセンシティブな属性から独立していることを保証することである。
この目的を達成するために、既存のほとんどのアプローチでは、ノード表現やアルゴリズムによる決定において、機密属性情報を排除している。
しかし、このような方法では、機密属性と固有の相関関係からタスク関連情報を排除し、ユーティリティーの犠牲になる可能性がある。
本研究では,タスク関連情報を保存しながら,GNNの公平性を向上することに焦点を当て,FairSADという公正なGNNフレームワークを提案する。
センシティブな属性情報を排除するのではなく、FairSADは、センシティブな属性関連情報を独立したコンポーネントに分離し、その影響を軽減することで、GNNの公正性を高める。
さらに、FairSADはチャネルマスキング機構を使用して、感度特性関連成分を適応的に識別し、その後にデコレーションする。
全体として、FairSADは機密属性を除去するのではなく、GNN結果に対する機密属性の影響を最小限に抑え、機密属性に関連するタスク関連情報を保存する。
さらに、複数の実世界のデータセットで実施された実験により、FairSADは他の最先端の手法よりも、公平性と実用性の両方の面で大きな差があることが示されている。
ソースコードはhttps://github.com/ZzoomD/FairSAD.comで公開されています。
関連論文リスト
- One Fits All: Learning Fair Graph Neural Networks for Various Sensitive Attributes [40.57757706386367]
不変学習,すなわちFairINVに基づくグラフフェアネスフレームワークを提案する。
FairINVはセンシティブな属性分割を取り入れ、ラベルと各種のセンシティブな属性の間の急激な相関を排除し、公正なGNNを訓練する。
いくつかの実世界のデータセットの実験結果から、FairINVは最先端のフェアネスアプローチを著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2024-06-19T13:30:17Z) - Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement [33.565252991113766]
グラフ異常検出(GAD)は、金融詐欺検出から偽ニュース検出まで、さまざまなアプリケーションにおいてますます重要になっている。
現在のGAD法は主に公平性の問題を見落としており、特定の人口集団に対して差別的な決定が下される可能性がある。
DeFENDという属性グラフ上に,DisEntangle-based FairnEss-aware aNomaly Detectionフレームワークを考案した。
実世界のデータセットに対する実証的な評価から、DEFENDはGADにおいて効果的に機能し、最先端のベースラインと比較して公正性を著しく向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-06-03T04:48:45Z) - Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation [0.0]
本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-12-26T10:54:15Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Improving Fairness in Graph Neural Networks via Mitigating Sensitive
Attribute Leakage [35.810534649478576]
グラフニューラルネットワーク(GNN)は、グラフ上のノード表現を学習する際の大きな力を示している。
GNNは、トレーニングデータから歴史的偏見を継承し、予測における差別的偏見をもたらす可能性がある。
本研究ではFairVGNN(Fair View Graph Neural Network)を提案する。
論文 参考訳(メタデータ) (2022-06-07T16:25:20Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Fairness via Representation Neutralization [60.90373932844308]
フェアネスのための表現中立化(Representation Neutralization for Fairness, RNF)という新たな緩和手法を提案する。
RNFは、DNNモデルのタスク固有の分類ヘッダのみをデバイアスすることで、その公平性を達成する。
複数のベンチマークデータセットに対する実験結果は、DNNモデルの識別を効果的に削減するRNFフレームワークを実証している。
論文 参考訳(メタデータ) (2021-06-23T22:26:29Z) - Say No to the Discrimination: Learning Fair Graph Neural Networks with
Limited Sensitive Attribute Information [37.90997236795843]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて大きな力を示している。
GNNは、皮膚の色や性別など、保護された機密属性に偏った予測を行う。
高いノード分類精度を維持しつつ,GNNのバイアスを取り除くためにFairGNNを提案する。
論文 参考訳(メタデータ) (2020-09-03T05:17:30Z) - Data Augmentation Imbalance For Imbalanced Attribute Classification [60.71438625139922]
本稿では,データ拡張不均衡(DAI)と呼ばれる新しい再サンプリングアルゴリズムを提案する。
我々のDAIアルゴリズムは歩行者属性のデータセットに基づいて最先端の結果を得る。
論文 参考訳(メタデータ) (2020-04-19T20:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。