論文の概要: Minimax Optimal Fair Classification with Bounded Demographic Disparity
- arxiv url: http://arxiv.org/abs/2403.18216v1
- Date: Wed, 27 Mar 2024 02:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:36:01.768863
- Title: Minimax Optimal Fair Classification with Bounded Demographic Disparity
- Title(参考訳): 境界ディファレンスを用いたミニマックスの公正分類
- Authors: Xianli Zeng, Guang Cheng, Edgar Dobriban,
- Abstract要約: 本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
- 参考スコア(独自算出の注目度): 28.936244976415484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mitigating the disparate impact of statistical machine learning methods is crucial for ensuring fairness. While extensive research aims to reduce disparity, the effect of using a \emph{finite dataset} -- as opposed to the entire population -- remains unclear. This paper explores the statistical foundations of fair binary classification with two protected groups, focusing on controlling demographic disparity, defined as the difference in acceptance rates between the groups. Although fairness may come at the cost of accuracy even with infinite data, we show that using a finite sample incurs additional costs due to the need to estimate group-specific acceptance thresholds. We study the minimax optimal classification error while constraining demographic disparity to a user-specified threshold. To quantify the impact of fairness constraints, we introduce a novel measure called \emph{fairness-aware excess risk} and derive a minimax lower bound on this measure that all classifiers must satisfy. Furthermore, we propose FairBayes-DDP+, a group-wise thresholding method with an offset that we show attains the minimax lower bound. Our lower bound proofs involve several innovations. Experiments support that FairBayes-DDP+ controls disparity at the user-specified level, while being faster and having a more favorable fairness-accuracy tradeoff than several baselines.
- Abstract(参考訳): 統計的機械学習手法の異なる影響を緩和することは公正性の確保に不可欠である。
幅広い研究は格差を減らすことを目的としているが、人口全体とは対照的に 'emph{finite dataset}' を使うことの効果は依然として不明である。
本稿では,2つの保護されたグループによる公正な二分分類の統計的基礎を考察し,両者の受容率の差として定義される人口格差の制御に焦点をあてる。
無限のデータであっても、公正さは精度の犠牲になるかもしれないが、群固有の受容閾値を推定する必要があるため、有限サンプルを使用することで追加コストが発生することを示す。
本研究では,人口格差をユーザが指定した閾値に制約しながら,最小値の最適分類誤差について検討する。
公正性制約の影響を定量化するために、我々は 'emph{fairness-aware excess risk' と呼ばれる新しい尺度を導入し、すべての分類器が満たさなければならないこの尺度のミニマックス下限を導出する。
さらに,FairBayes-DDP+というオフセットを持つグループワイドしきい値を求める手法を提案する。
私たちの低い境界証明には、いくつかの革新があります。
実験では、FairBayes-DDP+がユーザ指定レベルでの相違を制御できるが、高速で、複数のベースラインよりも良好な公平性-正確性トレードオフを持つ。
関連論文リスト
- Adaptive Boosting with Fairness-aware Reweighting Technique for Fair
Classification [0.0]
AdaBoost の解釈可能なフェアネス改善型である新しいフェア AdaBoost (FAB) アプローチが提案されている。
主に二分分類問題について検討し、3つの異なる指標の公平性に着目した。
FABはAdaBoostと比較して、少ない精度で分類公正性を著しく改善する。
論文 参考訳(メタデータ) (2024-01-06T00:00:49Z) - Marginal Debiased Network for Fair Visual Recognition [65.64172835624206]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
より具体的には、マージンペナルティという概念をフェアネス問題に導入することにより、マージンのソフトマックスロス(MSL)を設計する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成でき、従来の手法と比較して優れたデバイアス結果を得ることができる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Breaking Fair Binary Classification with Optimal Flipping Attacks [20.491652961382325]
公正性制約によるリスクの最小化は、公平な分類法を学ぶための一般的なアプローチの1つである。
最近の研究は、トレーニングセットが破損した場合、このアプローチが不公平な分類子となることを示した。
本研究では,フリップ攻撃を成功させるために必要な最小データ破損量について検討する。
論文 参考訳(メタデータ) (2022-04-12T01:44:50Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。