論文の概要: How Far Can Fairness Constraints Help Recover From Biased Data?
- arxiv url: http://arxiv.org/abs/2312.10396v1
- Date: Sat, 16 Dec 2023 09:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 16:55:24.558868
- Title: How Far Can Fairness Constraints Help Recover From Biased Data?
- Title(参考訳): フェアネスの制約はどれくらいでバイアスデータから回復できるのか?
- Authors: Mohit Sharma, Amit Deshpande
- Abstract要約: Blum & Stanglは、少数民族における下層表現とラベルバイアスをシミュレートするデータバイアスモデルを提案する。
極端に偏りのある分布であっても、均等な機会制約を持つ公平な分類は、元の分布上で最適に正確かつ公平な分類器を復元できることを示す。
- 参考スコア(独自算出の注目度): 10.599147221965023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blum & Stangl (2019) propose a data bias model to simulate
under-representation and label bias in underprivileged population. For a
stylized data distribution with i.i.d. label noise, under certain simple
conditions on the bias parameters, they show that fair classification with
equal opportunity constraints even on extremely biased distribution can recover
an optimally accurate and fair classifier on the original distribution.
Although their distribution is stylized, their result is interesting because it
demonstrates that fairness constraints can implicitly rectify data bias and
simultaneously overcome a perceived fairness-accuracy trade-off. In this paper,
we give an alternate proof of their result using threshold-based
characterization of optimal fair classifiers. Moreover, we show that their
conditions on the bias parameters are both necessary and sufficient for their
recovery result. Our technique is arguably more flexible, as it readily extends
to more general distributions, e.g., when the labels in the original
distribution have Massart noise instead of i.i.d. noise. Finally, we prove that
for any data distribution, if the optimally accurate classifier in a hypothesis
class is fair and robust, then it can be recovered through fair classification
on the biased distribution, whenever the bias parameters satisfy certain simple
conditions.
- Abstract(参考訳): blum & stangl (2019) は、人口の不足とラベルバイアスをシミュレートするデータバイアスモデルを提案する。
ラベルノイズを含むスタイリングされたデータ分布について、バイアスパラメータの特定の単純な条件下では、極度のバイアス分布でも等機会制約のある公平な分類が元の分布上で最適に正確かつ公平な分類器を復元できることを示す。
分布は定型化されているが、フェアネス制約が暗黙的にデータのバイアスを正し、同時にフェアネス正確なトレードオフを克服できることが示されるため、興味深い結果である。
本稿では,最適フェア分類器のしきい値に基づくキャラクタリゼーションを用いて,それらの結果の代替的な証明を行う。
さらに, バイアスパラメータの条件は, その回復に必要であり, 十分であることを示す。
我々の手法はより柔軟であり、例えば、元の分布のラベルがi.d.ノイズの代わりにマッサートノイズを持つ場合など、より一般的な分布に容易に拡張できる。
最後に、任意のデータ分布に対して、仮説クラスにおける最適精度の分類器が公平で堅牢であれば、バイアスパラメータがある種の単純な条件を満たす場合、バイアス分布の公平な分類によって回復できることを示す。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Debiasing classifiers: is reality at variance with expectation? [9.730485257882433]
私たちは、デバイアスは実際に、サンプル外データを一般化するのに失敗することが多く、実際は、改善よりも公平さを悪くする可能性があることを示しています。
公正さを考えると、パフォーマンスのトレードオフは、部分的偏りが実際にサンプル外データで実践した場合により良い結果をもたらすという直感的な考え方を正当化する。
論文 参考訳(メタデータ) (2020-11-04T17:00:54Z) - Group Fairness by Probabilistic Modeling with Latent Fair Decisions [36.20281545470954]
本稿では,隠蔽ラベルを表す潜伏変数を明示的にモデル化し,偏りのあるデータから確率分布を学習する。
我々は,学習モデルに一定の依存性を課すことで,人口統計学上の同等性を達成することを目指している。
また、これらの保証を提供するために使用される分布が実際に実世界のデータをキャプチャしている場合にのみ、グループフェアネス保証が有意義であることを示す。
論文 参考訳(メタデータ) (2020-09-18T19:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。