論文の概要: Fairness without Demographics through Adversarially Reweighted Learning
- arxiv url: http://arxiv.org/abs/2006.13114v3
- Date: Tue, 3 Nov 2020 18:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:06:46.129131
- Title: Fairness without Demographics through Adversarially Reweighted Learning
- Title(参考訳): 逆重み付き学習によるデモグラフィックのないフェアネス
- Authors: Preethi Lahoti, Alex Beutel, Jilin Chen, Kang Lee, Flavien Prost,
Nithum Thain, Xuezhi Wang, Ed H. Chi
- Abstract要約: 保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
- 参考スコア(独自算出の注目度): 20.803276801890657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much of the previous machine learning (ML) fairness literature assumes that
protected features such as race and sex are present in the dataset, and relies
upon them to mitigate fairness concerns. However, in practice factors like
privacy and regulation often preclude the collection of protected features, or
their use for training or inference, severely limiting the applicability of
traditional fairness research. Therefore we ask: How can we train an ML model
to improve fairness when we do not even know the protected group memberships?
In this work we address this problem by proposing Adversarially Reweighted
Learning (ARL). In particular, we hypothesize that non-protected features and
task labels are valuable for identifying fairness issues, and can be used to
co-train an adversarial reweighting approach for improving fairness. Our
results show that {ARL} improves Rawlsian Max-Min fairness, with notable AUC
improvements for worst-case protected groups in multiple datasets,
outperforming state-of-the-art alternatives.
- Abstract(参考訳): 以前の機械学習(ML)フェアネスの文献の多くは、人種や性別などの保護された特徴がデータセットに存在し、フェアネスの懸念を軽減するためにそれらに依存すると仮定している。
しかしながら、実際にはプライバシや規制といった要因によって、保護された特徴の収集や、トレーニングや推論への使用が妨げられ、従来の公正研究の適用性が著しく制限されることが多い。
したがって、保護されたグループメンバーシップさえ知らなくても、どのようにMLモデルをトレーニングして公正性を高めることができるのか?
本研究は,Adversarially Reweighted Learning (ARL)を提案することでこの問題に対処する。
特に,非保護機能やタスクラベルはフェアネスの問題を特定する上で有用であり,フェアネスを改善するための対向的リウェイト手法の協調訓練に使用できると仮定する。
以上の結果から,<ARL}はRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪のケース保護グループに対するAUCの顕著な改善を実現し,最先端の代替手段よりも優れていた。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [12.672917592158269]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - On the Privacy Risks of Algorithmic Fairness [9.429448411561541]
我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
論文 参考訳(メタデータ) (2020-11-07T09:15:31Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Ethical Adversaries: Towards Mitigating Unfairness with Adversarial
Machine Learning [8.436127109155008]
個人や組織は、モデルデザイナやデプロイ担当者が責任を持つように、不公平な結果に気付き、テストし、批判します。
トレーニングデータセットから生じる不公平な表現を緩和する上で,これらのグループを支援するフレームワークを提供する。
我々のフレームワークは公平性を改善するために2つの相互運用敵に依存している。
論文 参考訳(メタデータ) (2020-05-14T10:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。