論文の概要: From the Fair Distribution of Predictions to the Fair Distribution of
Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term
Unemployment
- arxiv url: http://arxiv.org/abs/2401.14438v1
- Date: Thu, 25 Jan 2024 14:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 17:00:52.779355
- Title: From the Fair Distribution of Predictions to the Fair Distribution of
Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term
Unemployment
- Title(参考訳): 予測の公平な分布から社会的財の公平な分布へ--長期失業に対する公平な機械学習の影響評価
- Authors: Sebastian Zezulka and Konstantin Genin
- Abstract要約: アルゴリズムフェアネスを動機づける根本的な問題に対処するには、予測フェアネスの概念が必要であると我々は主張する。
我々は、予測が政策決定をどう変えるか、したがって社会財の分配に焦点をあてる。
スイスの公共雇用サービスによる行政データを用いて、このような政策が長期失業における男女不平等にどのように影響するかをシミュレートします。
- 参考スコア(独自算出の注目度): 4.3512163406552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic fairness focuses on the distribution of predictions at the time
of training, rather than the distribution of social goods that arises after
deploying the algorithm in a concrete social context. However, requiring a
"fair" distribution of predictions may undermine efforts at establishing a fair
distribution of social goods. Our first contribution is conceptual: we argue
that addressing the fundamental question that motivates algorithmic fairness
requires a notion of prospective fairness that anticipates the change in the
distribution of social goods after deployment. Our second contribution is
theoretical: we provide conditions under which this change is identified from
pre-deployment data. That requires distinguishing between, and accounting for,
different kinds of performative effects. In particular, we focus on the way
predictions change policy decisions and, therefore, the distribution of social
goods. Throughout, we are guided by an application from public administration:
the use of algorithms to (1) predict who among the recently unemployed will
remain unemployed in the long term and (2) target them with labor market
programs. Our final contribution is empirical: using administrative data from
the Swiss public employment service, we simulate how such policies would affect
gender inequalities in long-term unemployment. When risk predictions are
required to be "fair", targeting decisions are less effective, undermining
efforts to lower overall levels of long-term unemployment and to close the
gender gap in long-term unemployment.
- Abstract(参考訳): アルゴリズムフェアネスは、具体的な社会的文脈にアルゴリズムを配置した後に生じる社会財の分布よりも、訓練時の予測の分布に焦点を当てる。
しかし、予測の「公正な」分布を要求することは、社会的財の公平な分配を確立する努力を損なう可能性がある。
我々の最初の貢献は概念的であり、アルゴリズム的公正を動機づける根本的な問題に対処するには、展開後の社会商品の流通の変化を予想する予測的公正の概念が必要であると論じる。
第2の貢献は理論的であり、この変更がデプロイ前のデータから識別される条件を提供する。
それは、異なる種類のパフォーマンス効果を区別し、説明することが必要です。
特に、予測が政策決定を変える方法や、それゆえ社会的財の流通に焦点を当てている。
我々は、(1)最近失業した人のうちの誰を長期にわたって失業させるかを予測するアルゴリズムの使用、(2)労働市場プログラムによる雇用を目標とするアルゴリズムの使用など、公共行政からの申請によって導かれる。
スイスの公共雇用サービスによる行政データを用いて、このような政策が長期失業における男女不平等にどのように影響するかをシミュレートします。
リスク予測が「公正」である必要がある場合、ターゲティング決定は効果が低く、長期失業の全体的な水準を下げ、長期失業の男女格差を埋めるための努力を損なう。
関連論文リスト
- Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Performativity and Prospective Fairness [4.3512163406552]
本稿では,因果的下流結果変数に対するアルゴリズム的効果に着目した。
我々は、このような政策が労働市場の男女不平等を悪化させるかどうかを予測する方法を示す。
論文 参考訳(メタデータ) (2023-10-12T14:18:13Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Fair When Trained, Unfair When Deployed: Observable Fairness Measures
are Unstable in Performative Prediction Settings [0.0]
性能予測設定では、予測器は正確に分布シフトを誘導することを意図している。
刑事司法、医療、消費者金融において、予測器を構築する目的は、有害な結果の率を減らすことである。
観測可能な結果ではなく、事実に依存した公平性の定義を用いることで、これらの問題の何つが避けられるかを示す。
論文 参考訳(メタデータ) (2022-02-10T14:09:02Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fairness in Algorithmic Profiling: A German Case Study [0.0]
本研究では、求職者の長期失業リスクを予測するための統計モデルを比較し、評価する。
これらのモデルは、競争力のある精度で長期失業を予測するために使用できることを示す。
異なる分類ポリシーは、非常に異なる公平性をもたらすことを強調する。
論文 参考訳(メタデータ) (2021-08-04T13:43:42Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。