論文の概要: Fair Bayes-Optimal Classifiers Under Predictive Parity
- arxiv url: http://arxiv.org/abs/2205.07182v1
- Date: Sun, 15 May 2022 04:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 14:23:27.179853
- Title: Fair Bayes-Optimal Classifiers Under Predictive Parity
- Title(参考訳): 予測パリティ下におけるフェアベイズ最適分類器
- Authors: Xianli Zeng, Edgar Dobriban and Guang Cheng
- Abstract要約: 本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 33.648053823193855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Increasing concerns about disparate effects of AI have motivated a great deal
of work on fair machine learning. Existing works mainly focus on independence-
and separation-based measures (e.g., demographic parity, equality of
opportunity, equalized odds), while sufficiency-based measures such as
predictive parity are much less studied. This paper considers predictive
parity, which requires equalizing the probability of success given a positive
prediction among different protected groups. We prove that, if the overall
performances of different groups vary only moderately, all fair Bayes-optimal
classifiers under predictive parity are group-wise thresholding rules. Perhaps
surprisingly, this may not hold if group performance levels vary widely; in
this case we find that predictive parity among protected groups may lead to
within-group unfairness. We then propose an algorithm we call FairBayes-DPP,
aiming to ensure predictive parity when our condition is satisfied.
FairBayes-DPP is an adaptive thresholding algorithm that aims to achieve
predictive parity, while also seeking to maximize test accuracy. We provide
supporting experiments conducted on synthetic and empirical data.
- Abstract(参考訳): AIの異なる影響に対する懸念の高まりは、公正な機械学習への多大な取り組みを動機付けている。
既存の研究は、主に独立と分離に基づく尺度(例えば、人口比率、機会の平等、均等化確率)に焦点を当て、一方、予測パリティのような十分に基づく尺度は、研究がより少ない。
本稿では,異なる保護群間での正の予測から,成功確率を等化する必要がある予測パリティについて考察する。
異なるグループの全体的な性能が適度にしか変化しない場合、予測パリティの下でのフェアベイズ最適分類器は全てグループごとのしきい値化規則である。
このケースでは、保護されたグループ間の予測パリティがグループ内の不公平につながる可能性があることに気付きます。
次にfairbayes-dpp (fairbayes-dpp) と呼ばれるアルゴリズムを提案する。
FairBayes-DPPは、精度を最大化しつつ、予測パリティを達成することを目的とした適応しきい値アルゴリズムである。
合成データおよび実験データを用いた支援実験を行う。
関連論文リスト
- Conformal Prediction Sets Can Cause Disparate Impact [4.61590049339329]
コンフォーマル予測は、機械学習モデルの不確実性を定量化するための有望な方法である。
予測セットを提供することは、彼らの決定の不公平性を高めることができることを示す。
カバー範囲を等化するのではなく、経験的により公平な結果をもたらすグループ間でセットサイズを等化することを提案する。
論文 参考訳(メタデータ) (2024-10-02T18:00:01Z) - Assessing Group Fairness with Social Welfare Optimization [0.9217021281095907]
本稿では,社会福祉機能の最適化に基づくより広範な社会的正義の概念が,パーティの定義の多様さを評価する上で有用かどうかを考察する。
特定の条件下では、人口比率や均等化確率を正当化できるが、しばしばこの種のパリティから逸脱する必要がある。
さらに,予測率パリティは有用性に限界があることが判明した。
論文 参考訳(メタデータ) (2024-05-19T01:41:04Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Bayes-Optimal Classifiers under Group Fairness [32.52143951145071]
本稿では,群フェアネスの下でベイズ最適分類器を導出するための統一的な枠組みを提供する。
本研究では,FairBayesと呼ばれるグループベースの閾値決定手法を提案する。
論文 参考訳(メタデータ) (2022-02-20T03:35:44Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。