論文の概要: Fair When Trained, Unfair When Deployed: Observable Fairness Measures
are Unstable in Performative Prediction Settings
- arxiv url: http://arxiv.org/abs/2202.05049v1
- Date: Thu, 10 Feb 2022 14:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 23:11:19.244218
- Title: Fair When Trained, Unfair When Deployed: Observable Fairness Measures
are Unstable in Performative Prediction Settings
- Title(参考訳): トレーニング時に公正、デプロイ時に不公平: 予測設定において観測可能な公正度対策は不安定である
- Authors: Alan Mishler, Niccol\`o Dalmasso
- Abstract要約: 性能予測設定では、予測器は正確に分布シフトを誘導することを意図している。
刑事司法、医療、消費者金融において、予測器を構築する目的は、有害な結果の率を減らすことである。
観測可能な結果ではなく、事実に依存した公平性の定義を用いることで、これらの問題の何つが避けられるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many popular algorithmic fairness measures depend on the joint distribution
of predictions, outcomes, and a sensitive feature like race or gender. These
measures are sensitive to distribution shift: a predictor which is trained to
satisfy one of these fairness definitions may become unfair if the distribution
changes. In performative prediction settings, however, predictors are precisely
intended to induce distribution shift. For example, in many applications in
criminal justice, healthcare, and consumer finance, the purpose of building a
predictor is to reduce the rate of adverse outcomes such as recidivism,
hospitalization, or default on a loan. We formalize the effect of such
predictors as a type of concept shift-a particular variety of distribution
shift-and show both theoretically and via simulated examples how this causes
predictors which are fair when they are trained to become unfair when they are
deployed. We further show how many of these issues can be avoided by using
fairness definitions that depend on counterfactual rather than observable
outcomes.
- Abstract(参考訳): 多くの一般的なアルゴリズム的公平性尺度は、予測、結果、人種や性別のような繊細な特徴の同時分布に依存する。
これらの尺度は分布シフトに敏感であり、分布が変化すれば公平性の定義の1つを満たすように訓練された予測器が不公平になる可能性がある。
しかし、性能予測設定では、予測器は正確に分布シフトを誘導することを意図している。
例えば、刑事司法、医療、消費者金融における多くの応用において、予測器を構築する目的は、返済、入院、ローンのデフォルトといった悪結果の率を下げることである。
このような予測器の効果を概念シフト(特定の分布シフト)のタイプとして定式化し,理論上およびシミュレーション例を通じて,展開時に不公平になるように訓練された場合の予測器の公平性を示す。
さらに,観察可能な結果よりも偽りに依存した公平性定義を用いることで,これらの問題の何件を回避できるかを示す。
関連論文リスト
- Conformal Prediction Sets Can Cause Disparate Impact [4.61590049339329]
コンフォーマル予測は、機械学習モデルの不確実性を定量化するための有望な方法である。
予測セットを提供することは、彼らの決定の不公平性を高めることができることを示す。
カバー範囲を等化するのではなく、経験的により公平な結果をもたらすグループ間でセットサイズを等化することを提案する。
論文 参考訳(メタデータ) (2024-10-02T18:00:01Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Performative Time-Series Forecasting [71.18553214204978]
我々は,機械学習の観点から,パフォーマンス時系列予測(PeTS)を定式化する。
本稿では,予測分布シフトに対する遅延応答の概念を活用する新しい手法であるFeature Performative-Shifting(FPS)を提案する。
新型コロナウイルスの複数の時系列モデルと交通予報タスクを用いた総合的な実験を行った。
論文 参考訳(メタデータ) (2023-10-09T18:34:29Z) - Variational Prediction [95.00085314353436]
本稿では,変動境界を用いた後部予測分布に対する変動近似の学習手法を提案する。
このアプローチは、テスト時間の限界化コストを伴わずに、優れた予測分布を提供することができる。
論文 参考訳(メタデータ) (2023-07-14T18:19:31Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Prediction Sensitivity: Continual Audit of Counterfactual Fairness in
Deployed Classifiers [2.0625936401496237]
従来のグループフェアネスのメトリクスは個人に対する差別を見逃しかねず、デプロイ後に適用するのが困難である。
本稿では,デプロイされた分類器における対実的公正性の連続的な監査手法である予測感度について述べる。
実証実験の結果,予測感度は反実的公正さの違反を検出するのに有効であることが示された。
論文 参考訳(メタデータ) (2022-02-09T15:06:45Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z) - Calibrated Prediction with Covariate Shift via Unsupervised Domain
Adaptation [25.97333838935589]
不確実性推定は、自律的なエージェントや人間の意思決定者が予測モデルを理解し、活用するのを助ける重要なツールである。
既存のアルゴリズムは確実性を過大評価し、予測モデルに誤った自信を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-29T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。