論文の概要: Ensuring Fairness under Prior Probability Shifts
- arxiv url: http://arxiv.org/abs/2005.03474v1
- Date: Wed, 6 May 2020 13:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:15:42.421177
- Title: Ensuring Fairness under Prior Probability Shifts
- Title(参考訳): 事前確率シフトによる公正性の確保
- Authors: Arpita Biswas, Suvam Mukherjee
- Abstract要約: 本研究では,事前確率シフトの存在下での公平な分類の問題について検討する。
この現象は、いくつかの実世界のデータセットの年次記録に見ることができる。
本稿では,CAPE が PE-fairness を保証するために最小化を試みている Prevalence difference (PD) と呼ばれる指標を提案する。
- 参考スコア(独自算出の注目度): 8.120457495747766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of fair classification in the presence of
prior probability shifts, where the training set distribution differs from the
test set. This phenomenon can be observed in the yearly records of several
real-world datasets, such as recidivism records and medical expenditure
surveys. If unaccounted for, such shifts can cause the predictions of a
classifier to become unfair towards specific population subgroups. While the
fairness notion called Proportional Equality (PE) accounts for such shifts, a
procedure to ensure PE-fairness was unknown.
In this work, we propose a method, called CAPE, which provides a
comprehensive solution to the aforementioned problem. CAPE makes novel use of
prevalence estimation techniques, sampling and an ensemble of classifiers to
ensure fair predictions under prior probability shifts. We introduce a metric,
called prevalence difference (PD), which CAPE attempts to minimize in order to
ensure PE-fairness. We theoretically establish that this metric exhibits
several desirable properties.
We evaluate the efficacy of CAPE via a thorough empirical evaluation on
synthetic datasets. We also compare the performance of CAPE with several
popular fair classifiers on real-world datasets like COMPAS (criminal risk
assessment) and MEPS (medical expenditure panel survey). The results indicate
that CAPE ensures PE-fair predictions, while performing well on other
performance metrics.
- Abstract(参考訳): 本稿では,事前確率シフトが存在する場合,テスト集合とトレーニング集合分布が異なる場合の公平分類の問題について検討する。
この現象は、レシビズム記録や医療費調査など、いくつかの実世界のデータセットの年次記録に見ることができる。
未確認の場合、そのようなシフトは、特定の集団サブグループに対して分類器の予測が不公平になる可能性がある。
比例平等(Proportional Equality, PE)と呼ばれる公平性の概念は、そのようなシフトを考慮に入れているが、PEの公平性を保証するための手順は分かっていなかった。
本研究では,上記の問題を包括的に解決する手法であるCAPEを提案する。
CAPEは、事前の確率シフトの下で公正な予測を保証するために、有病率推定技術、サンプリング、および分類器のアンサンブルを新たに利用している。
本稿では,CAPE が PE-fairness を保証するために最小化を試みている Prevalence difference (PD) と呼ばれる指標を提案する。
理論的には、この計量はいくつかの望ましい性質を示す。
人工データセットにおけるCAPEの有効性を実験的に評価した。
また,CAPEの性能を,CompAS(犯罪リスク評価)やMEPS(医療支出調査)のような現実のデータセット上でのいくつかの人気公正分類器と比較した。
結果は,CAPEがPEフェアの予測を確実にすると同時に,他のパフォーマンス指標でも良好に動作することを示す。
関連論文リスト
- Fairness Evaluation with Item Response Theory [10.871079276188649]
本稿では機械学習(ML)モデルにおける公平性を評価するための新しいFair-IRTフレームワークを提案する。
項目特性曲線(ICC)の詳細な説明は、特定の個人に対して提供される。
公平性評価ツールとしてのこのフレームワークの有効性を実証する実験を行った。
論文 参考訳(メタデータ) (2024-10-20T22:25:20Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Conformal Predictive Systems Under Covariate Shift [2.9310590399782788]
Conformal Predictive Systems (CPS) は予測分布を構築するための汎用的なフレームワークを提供する。
重み付きCPS(重み付きコンフォーマル予測)を提案する。
本稿ではWCPSの有効性と有効性に関する理論的根拠と予想について述べる。
論文 参考訳(メタデータ) (2024-04-23T13:23:27Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Evaluating Probabilistic Classifiers: The Triptych [62.997667081978825]
本稿では,予測性能の異なる相補的な側面に焦点をあてた診断グラフィックのトリチチを提案し,研究する。
信頼性図は校正に対処し、受信動作特性(ROC)曲線は識別能力を診断し、マーフィー図は全体的な予測性能と価値を視覚化する。
論文 参考訳(メタデータ) (2023-01-25T19:35:23Z) - Metrizing Fairness [5.323439381187456]
本研究では,2つの集団集団の個人に有意な影響を及ぼす教師付き学習問題について検討した。
我々は、統計パリティ(SP)のような群フェアネス基準に関して公正な予測子を求める。
本稿では,厳密なSP制約が保証される条件を特定し,予測精度を向上させる。
論文 参考訳(メタデータ) (2022-05-30T12:28:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers [2.0625936401496237]
従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2022-02-09T15:06:45Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。