論文の概要: Long-term dynamics of fairness: understanding the impact of data-driven
targeted help on job seekers
- arxiv url: http://arxiv.org/abs/2208.08881v1
- Date: Wed, 17 Aug 2022 12:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:58:55.580890
- Title: Long-term dynamics of fairness: understanding the impact of data-driven
targeted help on job seekers
- Title(参考訳): フェアネスの長期的ダイナミクス--データ駆動型目標支援が求職者に与える影響を理解する
- Authors: Sebastian Scher, Simone Kopeinik, Andreas Tr\"ugler, Dominik Kowald
- Abstract要約: 我々は、統計と機械学習を組み合わせたアプローチを用いて、労働市場の介入による長期的な公正効果を評価する。
我々は、求職者を選択的に支援する公共雇用機関による意思決定の影響を調べるためのモデルを開発し、利用する。
実世界のシステムにおけるトレードオフの定量化と長期的公正効果を評価するためには、周辺労働市場の慎重なモデリングが不可欠である。
- 参考スコア(独自算出の注目度): 1.357291726431012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of data-driven decision support by public agencies is becoming more
widespread and already influences the allocation of public resources. This
raises ethical concerns, as it has adversely affected minorities and
historically discriminated groups. In this paper, we use an approach that
combines statistics and machine learning with dynamical modeling to assess
long-term fairness effects of labor market interventions. Specifically, we
develop and use a model to investigate the impact of decisions caused by a
public employment authority that selectively supports job-seekers through
targeted help. The selection of who receives what help is based on a
data-driven intervention model that estimates an individual's chances of
finding a job in a timely manner and is based on data that describes a
population in which skills relevant to the labor market are unevenly
distributed between two groups (e.g., males and females). The intervention
model has incomplete access to the individual's actual skills and can augment
this with knowledge of the individual's group affiliation, thus using a
protected attribute to increase predictive accuracy. We assess this
intervention model's dynamics -- especially fairness-related issues and
trade-offs between different fairness goals -- over time and compare it to an
intervention model that does not use group affiliation as a predictive feature.
We conclude that in order to quantify the trade-off correctly and to assess the
long-term fairness effects of such a system in the real-world, careful modeling
of the surrounding labor market is indispensable.
- Abstract(参考訳): 公共機関によるデータ主導型意思決定支援の利用はますます広まり、既に公共資源の配分に影響を与えている。
これは、少数民族や歴史的に差別された集団に悪影響を与えているため、倫理的な懸念を引き起こす。
本稿では,統計と機械学習と動的モデリングを組み合わせたアプローチを用いて,労働市場介入の長期的な公平性効果を評価する。
具体的には、対象とする支援を通じて求職者を選択的に支援する公共雇用機関による決定の影響を調査するモデルを開発し、活用する。
援助を受ける者の選択は、タイムリーな方法で職を見つける確率を推定するデータ駆動介入モデルに基づいており、労働市場に関連するスキルが2つのグループ(例えば、男性と女性)に不均一に分散されている人口を記述したデータに基づいている。
介入モデルは、個人の実際のスキルに不完全なアクセスを持ち、これを個人のグループアフィリエイトの知識で強化することができるため、予測精度を高めるために保護属性を使用する。
この介入モデルのダイナミクス(特にフェアネスに関連する問題と異なるフェアネス目標間のトレードオフ)を時間とともに評価し、グループアフィリエーションを予測機能として使用しない介入モデルと比較する。
このトレードオフを正しく定量化し、実世界でのシステムによる長期的な公平性効果を評価するためには、周囲の労働市場の慎重なモデリングが不可欠である。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Ground(less) Truth: A Causal Framework for Proxy Labels in
Human-Algorithm Decision-Making [29.071173441651734]
人間のAI意思決定タスクにおけるプロキシラベルの有効性に影響を与える5つの変数バイアス源を同定する。
各バイアス間の関係を乱すための因果的枠組みを開発する。
今後の研究において、ターゲット変数バイアスに対処する機会について論じる。
論文 参考訳(メタデータ) (2023-02-13T16:29:11Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fairness in Algorithmic Profiling: A German Case Study [0.0]
本研究では、求職者の長期失業リスクを予測するための統計モデルを比較し、評価する。
これらのモデルは、競争力のある精度で長期失業を予測するために使用できることを示す。
異なる分類ポリシーは、非常に異なる公平性をもたらすことを強調する。
論文 参考訳(メタデータ) (2021-08-04T13:43:42Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。