論文の概要: Metrizing Fairness
- arxiv url: http://arxiv.org/abs/2205.15049v1
- Date: Mon, 30 May 2022 12:28:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 15:21:32.719736
- Title: Metrizing Fairness
- Title(参考訳): Metrizing Fairness
- Authors: Yves Rychener, Bahar Taskesen, Daniel Kuhn
- Abstract要約: 本研究では,2つのグループのうちの1つに属する個人の特性を予測するための教師付き学習問題について検討した。
本稿では,積分確率測度を用いて不公平さを測る概念的および計算的利点を示す。
統計的パリティが予測精度を向上させる条件を同定する。
- 参考スコア(独自算出の注目度): 7.820667552233989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study supervised learning problems for predicting properties of
individuals who belong to one of two demographic groups, and we seek predictors
that are fair according to statistical parity. This means that the
distributions of the predictions within the two groups should be close with
respect to the Kolmogorov distance, and fairness is achieved by penalizing the
dissimilarity of these two distributions in the objective function of the
learning problem. In this paper, we showcase conceptual and computational
benefits of measuring unfairness with integral probability metrics (IPMs) other
than the Kolmogorov distance. Conceptually, we show that the generator of any
IPM can be interpreted as a family of utility functions and that unfairness
with respect to this IPM arises if individuals in the two demographic groups
have diverging expected utilities. We also prove that the
unfairness-regularized prediction loss admits unbiased gradient estimators if
unfairness is measured by the squared $\mathcal L^2$-distance or by a squared
maximum mean discrepancy. In this case, the fair learning problem is
susceptible to efficient stochastic gradient descent (SGD) algorithms.
Numerical experiments on real data show that these SGD algorithms outperform
state-of-the-art methods for fair learning in that they achieve superior
accuracy-unfairness trade-offs -- sometimes orders of magnitude faster.
Finally, we identify conditions under which statistical parity can improve
prediction accuracy.
- Abstract(参考訳): 本研究では,2つのグループのうちの1つに属する個人の特性を予測するための教師付き学習問題を調査し,統計的パリティに応じて公平な予測者を求める。
このことは、2つの群内の予測の分布がコルモゴロフ距離に近づき、学習問題の目的関数においてこれらの2つの分布の相似性を罰することによって公平性を達成することを意味する。
本稿では,コルモゴロフ距離以外の積分確率測度(IPM)を用いて不公平さを測る概念的および計算的利点を示す。
概念的には、任意の ipm の生成元をユーティリティ関数の族として解釈することができ、この ipm に関する不公平性は、2つの人口集団の個人が期待する効用を分散させた場合に生じる。
また,不公平度が2乗平均L^2$-距離または2乗平均誤差で測定された場合,不公平度正規化予測損失は不偏勾配推定器を許容することを示した。
この場合、フェアラーニング問題は、効率的な確率勾配勾配(SGD)アルゴリズムに影響を受けやすい。
実データに関する数値実験によると、これらのSGDアルゴリズムは、公正な学習のための最先端の手法よりも優れた精度と不公平なトレードオフを実現している。
最後に,統計的パリティが予測精度を向上させる条件を特定する。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Fairness-enhancing mixed effects deep learning improves fairness on in-
and out-of-distribution clustered (non-iid) data [7.413980562174725]
本稿では,複合効果深層学習(MEDL)フレームワークを提案する。
MEDLはクラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
我々は,このMEDLと逆行性脱ベンゾル(逆行性脱ベンゾル)を結婚し,公正性に敏感な変数に対するFE,RE,ME予測の対等性を推し進める。
本フレームワークは, 性別で83%, 性で86%, 婚姻統計で27%まで, 敏感な変数の公平性を著しく向上させる。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Fair Regression with Wasserstein Barycenters [39.818025466204055]
本稿では, 実数値関数を学習し, 実数値関数の制約を満たす問題について検討する。
予測された出力の分布は、センシティブな属性から独立することを要求する。
フェア回帰と最適輸送理論の関連性を確立し、最適なフェア予測器に対するクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2020-06-12T16:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。