論文の概要: Better Fair than Sorry: Adversarial Missing Data Imputation for Fair
GNNs
- arxiv url: http://arxiv.org/abs/2311.01591v1
- Date: Thu, 2 Nov 2023 20:57:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 15:47:19.005415
- Title: Better Fair than Sorry: Adversarial Missing Data Imputation for Fair
GNNs
- Title(参考訳): 申し訳ないが、fair gnnのための逆行的欠落データインプテーション
- Authors: Debolina Halder Lina and Arlei Silva
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)を保護属性の欠如下で学習する問題に対処する。
我々は、公正なGNNが使用する保護属性に対する公正な欠落データ計算モデルであるBFtS(Better Fair than Sorry)を提案する。
- 参考スコア(独自算出の注目度): 6.680930089714339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the problem of learning fair Graph Neural Networks
(GNNs) under missing protected attributes. GNNs have achieved state-of-the-art
results in many relevant tasks where decisions might disproportionately impact
specific communities. However, existing work on fair GNNs assumes that either
protected attributes are fully-observed or that the missing data imputation is
fair. In practice, biases in the imputation will be propagated to the model
outcomes, leading them to overestimate the fairness of their predictions. We
address this challenge by proposing Better Fair than Sorry (BFtS), a fair
missing data imputation model for protected attributes used by fair GNNs. The
key design principle behind BFtS is that imputations should approximate the
worst-case scenario for the fair GNN -- i.e. when optimizing fairness is the
hardest. We implement this idea using a 3-player adversarial scheme where two
adversaries collaborate against the fair GNN. Experiments using synthetic and
real datasets show that BFtS often achieves a better fairness $\times$ accuracy
trade-off than existing alternatives.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク(GNN)を保護属性の欠如下で学習する問題に対処する。
GNNは、決定が特定のコミュニティに不均等に影響を及ぼす可能性のある多くの関連タスクにおいて、最先端の結果を達成した。
しかし、fair gnnsに関する既存の研究は、保護された属性が完全に保存されているか、欠落したデータインプテーションが公正であると仮定している。
実際、インプテーションのバイアスはモデルの結果に伝達され、予測の公平さを過大評価することになる。
私たちは、fair gnnが使用する保護属性に対する公正なデータインプテーションモデルであるbetter fair than sorry (bfts)を提案することで、この課題に対処します。
BFtSの鍵となる設計原理は、公正さを最適化することが最も難しいとき、公正なGNNの最悪のシナリオを近似すべきであるということである。
2人の敵がfair gnnと協力する3人のプレイヤーによる敵対的スキームを用いて、このアイデアを実装した。
合成データと実データを用いた実験は、bftsが既存の代替品よりも公平性が良いことをしばしば示している。
関連論文リスト
- Learning Counterfactually Fair Models via Improved Generation with Neural Causal Models [0.0]
機械学習モデルを現実世界のアプリケーションにデプロイする際の主な関心事のひとつは、公平性である。
既存のカウンターファクトフェアネスの実施方法には2つの制限があるようである。
本稿では,反現実的なサンプルを生成するためにニューラル因果モデルを提案する。
また,MMDをベースとした新たな正規化手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T11:59:03Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Adversarial Attacks on Fairness of Graph Neural Networks [63.155299388146176]
公正を意識したグラフニューラルネットワーク(GNN)は、どの人口集団でも予測のバイアスを減らすことができるため、注目を集めている。
これらの手法はGNNのアルゴリズム的公正性を大幅に改善するが、慎重に設計された敵攻撃によって容易に公正性を損なうことができる。
論文 参考訳(メタデータ) (2023-10-20T21:19:54Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Convex Fairness Constrained Model Using Causal Effect Estimators [6.414055487487486]
説明バイアスを保ちながら差別を除去するFairCEEと呼ばれる新しいモデルを考案する。
回帰および二分分類タスクにおけるFairCEEの効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-02-16T03:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。