論文の概要: On Testing and Comparing Fair classifiers under Data Bias
- arxiv url: http://arxiv.org/abs/2302.05906v1
- Date: Sun, 12 Feb 2023 13:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 17:58:44.354613
- Title: On Testing and Comparing Fair classifiers under Data Bias
- Title(参考訳): データバイアス下における公正分類器のテストと比較について
- Authors: Mohit Sharma, Amit Deshpande, Rajiv Ratn Shah
- Abstract要約: 表現不足とラベルバイアスの公平な分類器の精度と公平性に及ぼす効果について検討した。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
- 参考スコア(独自算出の注目度): 57.797550855642505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we consider a theoretical model for injecting data bias,
namely, under-representation and label bias (Blum & Stangl, 2019). We
theoretically and empirically study its effect on the accuracy and fairness of
fair classifiers. Theoretically, we prove that the Bayes optimal group-aware
fair classifier on the original data distribution can be recovered by simply
minimizing a carefully chosen reweighed loss on the bias-injected distribution.
Through extensive experiments on both synthetic and real-world datasets (e.g.,
Adult, German Credit, Bank Marketing, COMPAS), we empirically audit pre-, in-,
and post-processing fair classifiers from standard fairness toolkits for their
fairness and accuracy by injecting varying amounts of under-representation and
label bias in their training data (but not the test data). Our main
observations are: (1) The fairness and accuracy of many standard fair
classifiers degrade severely as the bias injected in their training data
increases, (2) A simple logistic regression model trained on the right data can
often outperform, in both accuracy and fairness, most fair classifiers trained
on biased training data, and (3) A few, simple fairness techniques (e.g.,
reweighing, exponentiated gradients) seem to offer stable accuracy and fairness
guarantees even when their training data is injected with under-representation
and label bias. Our experiments also show how to integrate a measure of data
bias risk in the existing fairness dashboards for real-world deployments
- Abstract(参考訳): 本稿では,データバイアス,すなわち自己表現とラベルバイアス(blum & stangl, 2019)を注入するための理論的モデルを検討する。
公平な分類器の精度と公平性に対するその効果を理論的に実証的に研究する。
理論的には、ベイズ最適群対応公正分類器は、バイアス注入分布における慎重に選択された相対損失を最小限に抑えることで、元のデータ分布を復元できることを示す。
合成および実世界のデータセット(例えば、アダルト、ドイツ信用、銀行マーケティング、CompAS)の広範な実験を通じて、トレーニングデータ(ただし、テストデータではなく)に様々な量の下位表現とラベルバイアスを注入することにより、標準フェアネスツールキットから、事前、内、後処理の公正分類を実証的に監査する。
Our main observations are: (1) The fairness and accuracy of many standard fair classifiers degrade severely as the bias injected in their training data increases, (2) A simple logistic regression model trained on the right data can often outperform, in both accuracy and fairness, most fair classifiers trained on biased training data, and (3) A few, simple fairness techniques (e.g., reweighing, exponentiated gradients) seem to offer stable accuracy and fairness guarantees even when their training data is injected with under-representation and label bias.
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法も示している。
関連論文リスト
- Towards the Mitigation of Confirmation Bias in Semi-supervised Learning: a Debiased Training Perspective [6.164100243945264]
半教師付き学習(SSL)は、モデルが特定のクラスを不均等に好むという、一般的に確認バイアスを示す。
SSLのデバイアスドトレーニングのための統合フレームワークであるTaMatchを紹介します。
TaMatchは,様々な課題の画像分類タスクにおいて,既存の最先端手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-09-26T21:50:30Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - How Far Can Fairness Constraints Help Recover From Biased Data? [9.430687114814997]
公平な分類に関する一般的な信念は、公正な制約は正確さとトレードオフを引き起こし、バイアスのあるデータが悪化する可能性があるというものである。
この信念とは対照的に、Blum & Stangl は、非常に偏りのあるデータであっても、同じ機会制約による公平な分類は、元のデータ分布上で最適に正確かつ公平な分類を回復できることを示した。
論文 参考訳(メタデータ) (2023-12-16T09:49:31Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。