論文の概要: How Far Can Fairness Constraints Help Recover From Biased Data?
- arxiv url: http://arxiv.org/abs/2312.10396v3
- Date: Thu, 8 Feb 2024 16:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 11:24:57.161397
- Title: How Far Can Fairness Constraints Help Recover From Biased Data?
- Title(参考訳): フェアネスの制約はどれくらいでバイアスデータから回復できるのか?
- Authors: Mohit Sharma, Amit Deshpande
- Abstract要約: 公平な分類に関する一般的な信念は、公正な制約は正確さとトレードオフを引き起こし、バイアスのあるデータが悪化する可能性があるというものである。
この信念とは対照的に、Blum & Stangl は、非常に偏りのあるデータであっても、同じ機会制約による公平な分類は、元のデータ分布上で最適に正確かつ公平な分類を回復できることを示した。
- 参考スコア(独自算出の注目度): 10.599147221965023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A general belief in fair classification is that fairness constraints incur a
trade-off with accuracy, which biased data may worsen. Contrary to this belief,
Blum & Stangl (2019) show that fair classification with equal opportunity
constraints even on extremely biased data can recover optimally accurate and
fair classifiers on the original data distribution. Their result is interesting
because it demonstrates that fairness constraints can implicitly rectify data
bias and simultaneously overcome a perceived fairness-accuracy trade-off. Their
data bias model simulates under-representation and label bias in
underprivileged population, and they show the above result on a stylized data
distribution with i.i.d. label noise, under simple conditions on the data
distribution and bias parameters. We propose a general approach to extend the
result of Blum & Stangl (2019) to different fairness constraints, data bias
models, data distributions, and hypothesis classes. We strengthen their result,
and extend it to the case when their stylized distribution has labels with
Massart noise instead of i.i.d. noise. We prove a similar recovery result for
arbitrary data distributions using fair reject option classifiers. We further
generalize it to arbitrary data distributions and arbitrary hypothesis classes,
i.e., we prove that for any data distribution, if the optimally accurate
classifier in a given hypothesis class is fair and robust, then it can be
recovered through fair classification with equal opportunity constraints on the
biased distribution whenever the bias parameters satisfy certain simple
conditions. Finally, we show applications of our technique to time-varying data
bias in classification and fair machine learning pipelines.
- Abstract(参考訳): 公平な分類に対する一般的な信念は、公平性の制約が正確さとトレードオフを伴い、バイアスのあるデータが悪化する可能性があることである。
この信念に反して、blum & stangl (2019) は、極度に偏ったデータでも等しく機会制約のある公平な分類は、元のデータ分布上で最適に正確かつ公平な分類を回復できることを示した。
彼らの結果は、公正性の制約がデータバイアスを暗黙的に修正し、公正さと正確さのトレードオフを同時に克服できることを示しているので興味深い。
彼らのデータバイアスモデルは、少数人口における下層表現とラベルバイアスをシミュレートし、データ分布とバイアスパラメータの簡単な条件下で、ラベルノイズを用いたスタイリングされたデータ分布で上記の結果を示す。
本稿では、blum & stangl(2019)の結果を異なる公平性制約、データバイアスモデル、データ分布、仮説クラスに拡張するための一般的なアプローチを提案する。
我々はそれらの結果を強化し、そのスタイル化された分布がi.d.ノイズの代わりにMassartノイズを持つラベルを持つ場合に拡張する。
任意のデータ分布に対してfair rejectオプション分類器を用いて同様の回復結果を示す。
さらに任意のデータ分布や任意の仮説クラスに一般化する、すなわち、任意のデータ分布に対して、与えられた仮説クラスの最適精度の分類器が公平で堅牢であれば、バイアスパラメータが一定の単純な条件を満たすとき、バイアス分布に等しい機会制約を課した公正な分類によって回復できることを示す。
最後に,この手法を,分類と公平な機械学習パイプラインにおける時間変動データバイアスに適用することを示す。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute
Classification [72.99103392426919]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Debiasing classifiers: is reality at variance with expectation? [9.730485257882433]
私たちは、デバイアスは実際に、サンプル外データを一般化するのに失敗することが多く、実際は、改善よりも公平さを悪くする可能性があることを示しています。
公正さを考えると、パフォーマンスのトレードオフは、部分的偏りが実際にサンプル外データで実践した場合により良い結果をもたらすという直感的な考え方を正当化する。
論文 参考訳(メタデータ) (2020-11-04T17:00:54Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。