論文の概要: Ensuring Fairness under Prior Probability Shifts
- arxiv url: http://arxiv.org/abs/2005.03474v1
- Date: Wed, 6 May 2020 13:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:15:42.421177
- Title: Ensuring Fairness under Prior Probability Shifts
- Title(参考訳): 事前確率シフトによる公正性の確保
- Authors: Arpita Biswas, Suvam Mukherjee
- Abstract要約: 本研究では,事前確率シフトの存在下での公平な分類の問題について検討する。
この現象は、いくつかの実世界のデータセットの年次記録に見ることができる。
本稿では,CAPE が PE-fairness を保証するために最小化を試みている Prevalence difference (PD) と呼ばれる指標を提案する。
- 参考スコア(独自算出の注目度): 8.120457495747766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of fair classification in the presence of
prior probability shifts, where the training set distribution differs from the
test set. This phenomenon can be observed in the yearly records of several
real-world datasets, such as recidivism records and medical expenditure
surveys. If unaccounted for, such shifts can cause the predictions of a
classifier to become unfair towards specific population subgroups. While the
fairness notion called Proportional Equality (PE) accounts for such shifts, a
procedure to ensure PE-fairness was unknown.
In this work, we propose a method, called CAPE, which provides a
comprehensive solution to the aforementioned problem. CAPE makes novel use of
prevalence estimation techniques, sampling and an ensemble of classifiers to
ensure fair predictions under prior probability shifts. We introduce a metric,
called prevalence difference (PD), which CAPE attempts to minimize in order to
ensure PE-fairness. We theoretically establish that this metric exhibits
several desirable properties.
We evaluate the efficacy of CAPE via a thorough empirical evaluation on
synthetic datasets. We also compare the performance of CAPE with several
popular fair classifiers on real-world datasets like COMPAS (criminal risk
assessment) and MEPS (medical expenditure panel survey). The results indicate
that CAPE ensures PE-fair predictions, while performing well on other
performance metrics.
- Abstract(参考訳): 本稿では,事前確率シフトが存在する場合,テスト集合とトレーニング集合分布が異なる場合の公平分類の問題について検討する。
この現象は、レシビズム記録や医療費調査など、いくつかの実世界のデータセットの年次記録に見ることができる。
未確認の場合、そのようなシフトは、特定の集団サブグループに対して分類器の予測が不公平になる可能性がある。
比例平等(Proportional Equality, PE)と呼ばれる公平性の概念は、そのようなシフトを考慮に入れているが、PEの公平性を保証するための手順は分かっていなかった。
本研究では,上記の問題を包括的に解決する手法であるCAPEを提案する。
CAPEは、事前の確率シフトの下で公正な予測を保証するために、有病率推定技術、サンプリング、および分類器のアンサンブルを新たに利用している。
本稿では,CAPE が PE-fairness を保証するために最小化を試みている Prevalence difference (PD) と呼ばれる指標を提案する。
理論的には、この計量はいくつかの望ましい性質を示す。
人工データセットにおけるCAPEの有効性を実験的に評価した。
また,CAPEの性能を,CompAS(犯罪リスク評価)やMEPS(医療支出調査)のような現実のデータセット上でのいくつかの人気公正分類器と比較した。
結果は,CAPEがPEフェアの予測を確実にすると同時に,他のパフォーマンス指標でも良好に動作することを示す。
関連論文リスト
- Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Forecast reconciliation for vaccine supply chain optimization [61.13962963550403]
ワクチンサプライチェーン最適化は階層的な時系列予測の恩恵を受けることができる。
異なる階層レベルの予測は、上位レベルの予測が下位レベルの予測の総和と一致しないときに不整合となる。
我々は2010年から2021年にかけてのGSKの販売データを階層的時系列としてモデル化し,ワクチン販売予測問題に取り組む。
論文 参考訳(メタデータ) (2023-05-02T14:34:34Z) - Evaluating Probabilistic Classifiers: The Triptych [62.997667081978825]
本稿では,予測性能の異なる相補的な側面に焦点をあてた診断グラフィックのトリチチを提案し,研究する。
信頼性図は校正に対処し、受信動作特性(ROC)曲線は識別能力を診断し、マーフィー図は全体的な予測性能と価値を視覚化する。
論文 参考訳(メタデータ) (2023-01-25T19:35:23Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Metrizing Fairness [7.820667552233989]
本研究では,2つのグループのうちの1つに属する個人の特性を予測するための教師付き学習問題について検討した。
本稿では,積分確率測度を用いて不公平さを測る概念的および計算的利点を示す。
統計的パリティが予測精度を向上させる条件を同定する。
論文 参考訳(メタデータ) (2022-05-30T12:28:10Z) - Fair Bayes-Optimal Classifiers Under Predictive Parity [33.648053823193855]
本稿では、異なる保護群間での正の予測から、成功の確率を等しくする必要がある予測パリティについて考察する。
本研究では,FairBayes-DPPと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-15T04:58:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers [2.0625936401496237]
従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2022-02-09T15:06:45Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。