論文の概要: Bayes-Optimal Classifiers under Group Fairness
- arxiv url: http://arxiv.org/abs/2202.09724v1
- Date: Sun, 20 Feb 2022 03:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-22 16:13:35.333261
- Title: Bayes-Optimal Classifiers under Group Fairness
- Title(参考訳): 群フェアネス下におけるベイズ最適分類器
- Authors: Xianli Zeng and Edgar Dobriban and Guang Cheng
- Abstract要約: 本稿では,群フェアネスの下でベイズ最適分類器を導出するための一般的な枠組みを提供する。
そこで本稿では,不均一性を直接制御できるグループベースのしきい値設定手法を提案する。
- 参考スコア(独自算出の注目度): 33.648053823193855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms are becoming integrated into more and more
high-stakes decision-making processes, such as in social welfare issues. Due to
the need of mitigating the potentially disparate impacts from algorithmic
predictions, many approaches have been proposed in the emerging area of fair
machine learning. However, the fundamental problem of characterizing
Bayes-optimal classifiers under various group fairness constraints is not well
understood as a theoretical benchmark. Based on the classical Neyman-Pearson
argument (Neyman and Pearson, 1933; Shao, 2003) for optimal hypothesis testing,
this paper provides a general framework for deriving Bayes-optimal classifiers
under group fairness. This enables us to propose a group-based thresholding
method that can directly control disparity, and more importantly, achieve an
optimal fairness-accuracy tradeoff. These advantages are supported by
experiments.
- Abstract(参考訳): 機械学習のアルゴリズムは、社会福祉問題など、より高度な意思決定プロセスに統合されつつある。
アルゴリズム予測から潜在的に異なる影響を緩和する必要があるため、公正な機械学習の分野において多くのアプローチが提案されている。
しかしながら、様々な群フェアネス制約の下でベイズ最適分類器を特徴付ける基本的な問題は、理論的ベンチマークとしてはあまり理解されていない。
古典的なナイマン・ピアソン論(Neyman and Pearson, 1933; Shao, 2003)に基づいて、群フェアネスの下でベイズ最適分類器を導出するための一般的な枠組みを提供する。
これにより、不均一性を直接制御できるグループベースのしきい値決定法が提案され、さらに重要なことは、最適フェアネス精度トレードオフを実現することである。
これらの利点は実験によって支えられている。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fair Bayes-Optimal Classifiers Under Predictive Parity [33.648053823193855]
本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-15T04:58:10Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。