論文の概要: On Comparing Fair Classifiers under Data Bias
- arxiv url: http://arxiv.org/abs/2302.05906v2
- Date: Sun, 10 Dec 2023 11:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 22:53:34.609746
- Title: On Comparing Fair Classifiers under Data Bias
- Title(参考訳): データバイアス下での公平な分類器の比較について
- Authors: Mohit Sharma, Amit Deshpande, Rajiv Ratn Shah
- Abstract要約: 本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
- 参考スコア(独自算出の注目度): 42.43344286660331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we consider a theoretical model for injecting data bias,
namely, under-representation and label bias (Blum & Stangl, 2019). We
empirically study the effect of varying data biases on the accuracy and
fairness of fair classifiers. Through extensive experiments on both synthetic
and real-world datasets (e.g., Adult, German Credit, Bank Marketing, COMPAS),
we empirically audit pre-, in-, and post-processing fair classifiers from
standard fairness toolkits for their fairness and accuracy by injecting varying
amounts of under-representation and label bias in their training data (but not
the test data). Our main observations are: 1. The fairness and accuracy of many
standard fair classifiers degrade severely as the bias injected in their
training data increases, 2. A simple logistic regression model trained on the
right data can often outperform, in both accuracy and fairness, most fair
classifiers trained on biased training data, and 3. A few, simple fairness
techniques (e.g., reweighing, exponentiated gradients) seem to offer stable
accuracy and fairness guarantees even when their training data is injected with
under-representation and label bias. Our experiments also show how to integrate
a measure of data bias risk in the existing fairness dashboards for real-world
deployments.
- Abstract(参考訳): 本稿では,データバイアス,すなわち自己表現とラベルバイアス(blum & stangl, 2019)を注入するための理論的モデルを検討する。
フェア分類器の精度と公平性に対する様々なデータバイアスの影響を実証研究する。
合成および実世界のデータセット(例えば、アダルト、ドイツ信用、銀行マーケティング、CompAS)の広範な実験を通じて、トレーニングデータ(ただし、テストデータではなく)に様々な量の下位表現とラベルバイアスを注入することにより、標準フェアネスツールキットから、事前、内、後処理の公正分類を実証的に監査する。
私たちの主な観察は
1 標準公正分類器の公平性と精度は、訓練データに注入されるバイアスが増加するにつれて著しく低下する。
2. 適切なデータに基づいてトレーニングされた単純なロジスティック回帰モデルは、精度と公平性の両方において、偏りのあるトレーニングデータに基づいてトレーニングされた最も公正な分類器よりもしばしば優れる。
3. 少数の単純なフェアネス技術(例えば、リウィーディング、指数化勾配)は、トレーニングデータを低表現とラベルバイアスで注入しても、安定した精度と公正性を保証する。
実験では、既存のフェアネスダッシュボードにデータバイアスリスクの測定値を統合する方法も示しています。
関連論文リスト
- AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - How Far Can Fairness Constraints Help Recover From Biased Data? [9.430687114814997]
公平な分類に関する一般的な信念は、公正な制約は正確さとトレードオフを引き起こし、バイアスのあるデータが悪化する可能性があるというものである。
この信念とは対照的に、Blum & Stangl は、非常に偏りのあるデータであっても、同じ機会制約による公平な分類は、元のデータ分布上で最適に正確かつ公平な分類を回復できることを示した。
論文 参考訳(メタデータ) (2023-12-16T09:49:31Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Robust Fairness-aware Learning Under Sample Selection Bias [17.09665420515772]
サンプル選択バイアス下での頑健で公正な学習のための枠組みを提案する。
テストデータが利用可能で、利用できない場合に、サンプル選択バイアスを処理する2つのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-05-24T23:23:36Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。