論文の概要: Bayes-Optimal Classifiers under Group Fairness
- arxiv url: http://arxiv.org/abs/2202.09724v5
- Date: Tue, 6 Feb 2024 08:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:40:49.821085
- Title: Bayes-Optimal Classifiers under Group Fairness
- Title(参考訳): 群フェアネス下におけるベイズ最適分類器
- Authors: Xianli Zeng and Edgar Dobriban and Guang Cheng
- Abstract要約: 本稿では,群フェアネスの下でベイズ最適分類器を導出するための統一的な枠組みを提供する。
本研究では,FairBayesと呼ばれるグループベースの閾値決定手法を提案する。
- 参考スコア(独自算出の注目度): 32.52143951145071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms are becoming integrated into more and more
high-stakes decision-making processes, such as in social welfare issues. Due to
the need of mitigating the potentially disparate impacts from algorithmic
predictions, many approaches have been proposed in the emerging area of fair
machine learning. However, the fundamental problem of characterizing
Bayes-optimal classifiers under various group fairness constraints has only
been investigated in some special cases. Based on the classical Neyman-Pearson
argument (Neyman and Pearson, 1933; Shao, 2003) for optimal hypothesis testing,
this paper provides a unified framework for deriving Bayes-optimal classifiers
under group fairness. This enables us to propose a group-based thresholding
method we call FairBayes, that can directly control disparity, and achieve an
essentially optimal fairness-accuracy tradeoff. These advantages are supported
by thorough experiments.
- Abstract(参考訳): 機械学習のアルゴリズムは、社会福祉問題など、より高度な意思決定プロセスに統合されつつある。
アルゴリズム予測から潜在的に異なる影響を緩和する必要があるため、公正な機械学習の分野において多くのアプローチが提案されている。
しかし,様々な群フェアネス制約の下でベイズ最適分類器を特徴付ける基本的な問題は,いくつかの特別なケースでのみ研究されている。
最適仮説テストのための古典的ネマン・ピアソンの議論(Neyman and Pearson, 1933; Shao, 2003)に基づいて、本論文は群フェアネスの下でベイズ最適分類器を導出するための統一的な枠組みを提供する。
これにより、FairBayesと呼ばれるグループベースのしきい値設定手法を提案し、この手法は相違を直接制御し、本質的に最適なフェアネス精度トレードオフを実現する。
これらの利点は徹底的な実験によって支えられている。
関連論文リスト
- Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fair Bayes-Optimal Classifiers Under Predictive Parity [33.648053823193855]
本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-15T04:58:10Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z) - Genetic programming approaches to learning fair classifiers [4.901632310846025]
フェアネスを分類のための遺伝的プログラミングに組み込んだ、公正さと動機付けの提案に対する現在のアプローチについて論じる。
1つ目は、フェアネスの目的を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
論文 参考訳(メタデータ) (2020-04-28T04:20:25Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。