論文の概要: Fairness Transferability Subject to Bounded Distribution Shift
- arxiv url: http://arxiv.org/abs/2206.00129v3
- Date: Thu, 15 Dec 2022 22:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:23:32.105217
- Title: Fairness Transferability Subject to Bounded Distribution Shift
- Title(参考訳): 境界分布シフトを考慮したフェアネス伝達性
- Authors: Yatong Chen, Reilly Raab, Jialu Wang, Yang Liu
- Abstract要約: あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
- 参考スコア(独自算出の注目度): 5.62716254065607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given an algorithmic predictor that is "fair" on some source distribution,
will it still be fair on an unknown target distribution that differs from the
source within some bound? In this paper, we study the transferability of
statistical group fairness for machine learning predictors (i.e., classifiers
or regressors) subject to bounded distribution shifts. Such shifts may be
introduced by initial training data uncertainties, user adaptation to a
deployed predictor, dynamic environments, or the use of pre-trained models in
new settings. Herein, we develop a bound that characterizes such
transferability, flagging potentially inappropriate deployments of machine
learning for socially consequential tasks. We first develop a framework for
bounding violations of statistical fairness subject to distribution shift,
formulating a generic upper bound for transferred fairness violations as our
primary result. We then develop bounds for specific worked examples, focusing
on two commonly used fairness definitions (i.e., demographic parity and
equalized odds) and two classes of distribution shift (i.e., covariate shift
and label shift). Finally, we compare our theoretical bounds to deterministic
models of distribution shift and against real-world data, finding that we are
able to estimate fairness violation bounds in practice, even when simplifying
assumptions are only approximately satisfied.
- Abstract(参考訳): あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本稿では,境界分布シフトを受ける機械学習予測器(分類器や回帰器)に対する統計的群フェアネスの伝達可能性について検討する。
このようなシフトは、最初のトレーニングデータの不確実性、デプロイされた予測子へのユーザ適応、動的環境、あるいは新しい設定で事前トレーニングされたモデルを使用することによって実現される。
そこで我々は,このような伝達可能性の特性を特徴付けるバウンダリを開発し,社会的に連続したタスクに対する機械学習の不適切な展開を通知する。
まず, 分布変化に伴う統計的公正違反の有界化のための枠組みを開発し, 転送された公正違反に対する一般上界の定式化を行った。
次に、特定の作業例の境界を開発し、一般的な2つのフェアネス定義(人口差パリティと等化オッズ)と2つの分散シフト(共変量シフトとラベルシフト)に焦点を当てた。
最後に, 分布シフトの決定論的モデルと実世界データとの比較を行い, 仮定の簡略化がほぼ満足できる場合であっても, 実世界の公平性違反限界を推定できることを見いだした。
関連論文リスト
- Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Transferring Fairness under Distribution Shifts via Fair Consistency
Regularization [15.40257564187799]
本研究では,分散シフトの下でモデルフェアネスを伝達する方法について検討する。
ドメインシフトの下での転送精度の自己学習の成功に触発されて、グループフェアネスの転送に十分な条件が導出される。
論文 参考訳(メタデータ) (2022-06-26T06:19:56Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - Calibrated Prediction with Covariate Shift via Unsupervised Domain
Adaptation [25.97333838935589]
不確実性推定は、自律的なエージェントや人間の意思決定者が予測モデルを理解し、活用するのを助ける重要なツールである。
既存のアルゴリズムは確実性を過大評価し、予測モデルに誤った自信を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-29T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。