論文の概要: How Far Can Fairness Constraints Help Recover From Biased Data?
- arxiv url: http://arxiv.org/abs/2312.10396v1
- Date: Sat, 16 Dec 2023 09:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 16:55:24.558868
- Title: How Far Can Fairness Constraints Help Recover From Biased Data?
- Title(参考訳): フェアネスの制約はどれくらいでバイアスデータから回復できるのか?
- Authors: Mohit Sharma, Amit Deshpande
- Abstract要約: Blum & Stanglは、少数民族における下層表現とラベルバイアスをシミュレートするデータバイアスモデルを提案する。
極端に偏りのある分布であっても、均等な機会制約を持つ公平な分類は、元の分布上で最適に正確かつ公平な分類器を復元できることを示す。
- 参考スコア(独自算出の注目度): 10.599147221965023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blum & Stangl (2019) propose a data bias model to simulate
under-representation and label bias in underprivileged population. For a
stylized data distribution with i.i.d. label noise, under certain simple
conditions on the bias parameters, they show that fair classification with
equal opportunity constraints even on extremely biased distribution can recover
an optimally accurate and fair classifier on the original distribution.
Although their distribution is stylized, their result is interesting because it
demonstrates that fairness constraints can implicitly rectify data bias and
simultaneously overcome a perceived fairness-accuracy trade-off. In this paper,
we give an alternate proof of their result using threshold-based
characterization of optimal fair classifiers. Moreover, we show that their
conditions on the bias parameters are both necessary and sufficient for their
recovery result. Our technique is arguably more flexible, as it readily extends
to more general distributions, e.g., when the labels in the original
distribution have Massart noise instead of i.i.d. noise. Finally, we prove that
for any data distribution, if the optimally accurate classifier in a hypothesis
class is fair and robust, then it can be recovered through fair classification
on the biased distribution, whenever the bias parameters satisfy certain simple
conditions.
- Abstract(参考訳): blum & stangl (2019) は、人口の不足とラベルバイアスをシミュレートするデータバイアスモデルを提案する。
ラベルノイズを含むスタイリングされたデータ分布について、バイアスパラメータの特定の単純な条件下では、極度のバイアス分布でも等機会制約のある公平な分類が元の分布上で最適に正確かつ公平な分類器を復元できることを示す。
分布は定型化されているが、フェアネス制約が暗黙的にデータのバイアスを正し、同時にフェアネス正確なトレードオフを克服できることが示されるため、興味深い結果である。
本稿では,最適フェア分類器のしきい値に基づくキャラクタリゼーションを用いて,それらの結果の代替的な証明を行う。
さらに, バイアスパラメータの条件は, その回復に必要であり, 十分であることを示す。
我々の手法はより柔軟であり、例えば、元の分布のラベルがi.d.ノイズの代わりにマッサートノイズを持つ場合など、より一般的な分布に容易に拡張できる。
最後に、任意のデータ分布に対して、仮説クラスにおける最適精度の分類器が公平で堅牢であれば、バイアスパラメータがある種の単純な条件を満たす場合、バイアス分布の公平な分類によって回復できることを示す。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - On the Power of Randomization in Fair Classification and Representation [4.423655941492362]
正当性制約を課す際に生じる精度の損失を最小限に抑えるためにランダム化の力を示す。
本研究では, DPフェア, EOフェア, PEフェアの表現を, 最適なDPフェア, EOフェア, PEフェアの分類器に比較して, 高い精度で, 精度を損なうことなく構築する。
論文 参考訳(メタデータ) (2024-06-05T10:55:11Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - DECAF: Generating Fair Synthetic Data Using Causally-Aware Generative
Networks [71.6879432974126]
本稿では,GANに基づく表型データのための公正な合成データ生成装置であるDECAFを紹介する。
DeCAFは望ましくないバイアスを除去し,高品質な合成データを生成可能であることを示す。
下流モデルの収束と公平性に関する理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-25T12:39:56Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。