論文の概要: From the Fair Distribution of Predictions to the Fair Distribution of Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term Unemployment
- arxiv url: http://arxiv.org/abs/2401.14438v2
- Date: Mon, 17 Jun 2024 09:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 06:45:07.500582
- Title: From the Fair Distribution of Predictions to the Fair Distribution of Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term Unemployment
- Title(参考訳): 予測の公平な分布から社会財の公正な分布へ--機械学習が長期的失業に与える影響の評価
- Authors: Sebastian Zezulka, Konstantin Genin,
- Abstract要約: この問題に対処するには,展開後のソーシャルグッズ分布の変化を予見する,予測公正性の概念が必要である,と我々は主張する。
私たちは、公共行政からの申請によって導かれています。最近失業した人のうちの誰が長期的に失業するかを予測するアルゴリズムの使用です。
我々は、このようなアルゴリズムによるインフォームドポリシーが、長期失業における男女不平等にどのように影響するかをシミュレートする。
- 参考スコア(独自算出の注目度): 3.683202928838613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying an algorithmically informed policy is a significant intervention in society. Prominent methods for algorithmic fairness focus on the distribution of predictions at the time of training, rather than the distribution of social goods that arises after deploying the algorithm in a specific social context. However, requiring a "fair" distribution of predictions may undermine efforts at establishing a fair distribution of social goods. First, we argue that addressing this problem requires a notion of prospective fairness that anticipates the change in the distribution of social goods after deployment. Second, we provide formal conditions under which this change is identified from pre-deployment data. That requires accounting for different kinds of performative effects. Here, we focus on the way predictions change policy decisions and, consequently, the causally downstream distribution of social goods. Throughout, we are guided by an application from public administration: the use of algorithms to predict who among the recently unemployed will remain unemployed in the long term and to target them with labor market programs. Third, using administrative data from the Swiss public employment service, we simulate how such algorithmically informed policies would affect gender inequalities in long-term unemployment. When risk predictions are required to be "fair" according to statistical parity and equality of opportunity, targeting decisions are less effective, undermining efforts to both lower overall levels of long-term unemployment and to close the gender gap in long-term unemployment.
- Abstract(参考訳): アルゴリズムによる政策の展開は、社会における重要な介入である。
アルゴリズムフェアネスの代表的な方法は、特定の社会的文脈にアルゴリズムを配置した後に生じる社会財の分布よりも、訓練時の予測の分布に焦点を当てる。
しかし、予測の「公正な」分布を必要とすることは、社会的商品の公平な分布を確立するための努力を損なう可能性がある。
まず,この問題に対処するためには,展開後のソーシャルグッズ分布の変化を予見する予見的公正性の概念が必要であると論じる。
第2に、この変更が事前デプロイデータから特定される正式な条件を提供する。
それは、さまざまな種類のパフォーマンス効果を説明する必要がある。
ここでは、予測が政策決定をどう変えるか、その結果、社会財の因果的下流分布に焦点をあてる。
全体として、私たちは、公共行政からの申請によって導かれています。最近失業した人のうちの誰が長期的に失業し続け、労働市場プログラムで彼らを狙うかを予測するアルゴリズムの使用です。
第3に、スイスの公共雇用サービスによる行政データを用いて、このようなアルゴリズムによるインフォームドポリシーが、長期失業における男女不平等にどのように影響するかをシミュレートする。
リスク予測が統計的平等と機会の平等に従って「公正」である必要がある場合、ターゲティング決定は効果が低く、長期失業の全体的な水準を低くし、長期失業の男女格差を埋める努力を損なう。
関連論文リスト
- Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Performativity and Prospective Fairness [4.3512163406552]
本稿では,因果的下流結果変数に対するアルゴリズム的効果に着目した。
我々は、このような政策が労働市場の男女不平等を悪化させるかどうかを予測する方法を示す。
論文 参考訳(メタデータ) (2023-10-12T14:18:13Z) - Fairness Transferability Subject to Bounded Distribution Shift [5.62716254065607]
あるソース分布に「フェア」なアルゴリズム予測器が与えられたとしても、あるバウンダリ内のソースと異なる未知のターゲット分布上では、まだフェアなのか?
本研究では,有界分布シフトを考慮した機械学習予測器の統計的グループフェアネスの伝達可能性について検討する。
論文 参考訳(メタデータ) (2022-05-31T22:16:44Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Fair When Trained, Unfair When Deployed: Observable Fairness Measures
are Unstable in Performative Prediction Settings [0.0]
性能予測設定では、予測器は正確に分布シフトを誘導することを意図している。
刑事司法、医療、消費者金融において、予測器を構築する目的は、有害な結果の率を減らすことである。
観測可能な結果ではなく、事実に依存した公平性の定義を用いることで、これらの問題の何つが避けられるかを示す。
論文 参考訳(メタデータ) (2022-02-10T14:09:02Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fairness in Algorithmic Profiling: A German Case Study [0.0]
本研究では、求職者の長期失業リスクを予測するための統計モデルを比較し、評価する。
これらのモデルは、競争力のある精度で長期失業を予測するために使用できることを示す。
異なる分類ポリシーは、非常に異なる公平性をもたらすことを強調する。
論文 参考訳(メタデータ) (2021-08-04T13:43:42Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。