論文の概要: Fairness in Algorithmic Profiling: A German Case Study
- arxiv url: http://arxiv.org/abs/2108.04134v1
- Date: Wed, 4 Aug 2021 13:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-15 11:33:09.439137
- Title: Fairness in Algorithmic Profiling: A German Case Study
- Title(参考訳): アルゴリズムプロファイリングの公正性:ドイツにおける事例研究
- Authors: Christoph Kern, Ruben L. Bach, Hannah Mautner and Frauke Kreuter
- Abstract要約: 本研究では、求職者の長期失業リスクを予測するための統計モデルを比較し、評価する。
これらのモデルは、競争力のある精度で長期失業を予測するために使用できることを示す。
異なる分類ポリシーは、非常に異なる公平性をもたらすことを強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic profiling is increasingly used in the public sector as a means to
allocate limited public resources effectively and objectively. One example is
the prediction-based statistical profiling of job seekers to guide the
allocation of support measures by public employment services. However,
empirical evaluations of potential side-effects such as unintended
discrimination and fairness concerns are rare. In this study, we compare and
evaluate statistical models for predicting job seekers' risk of becoming
long-term unemployed with respect to prediction performance, fairness metrics,
and vulnerabilities to data analysis decisions. Focusing on Germany as a use
case, we evaluate profiling models under realistic conditions by utilizing
administrative data on job seekers' employment histories that are routinely
collected by German public employment services. Besides showing that these data
can be used to predict long-term unemployment with competitive levels of
accuracy, we highlight that different classification policies have very
different fairness implications. We therefore call for rigorous auditing
processes before such models are put to practice.
- Abstract(参考訳): アルゴリズムプロファイリングは、限られた公共資源を効果的かつ客観的に割り当てる手段として、公共部門でますます使われている。
例えば、公共雇用サービスによる支援策の配分を導くために、求職者の予測に基づく統計プロファイルがある。
しかしながら、意図しない差別や公平性の懸念といった潜在的な副作用の実証的な評価は稀である。
本研究では, 長期失業リスクを予測するための統計モデルの比較・評価を行い, 予測性能, 公平度指標, およびデータ分析判断に対する脆弱性について検討した。
事例としてドイツに着目し,ドイツ公共雇用サービスによって定期的に収集される求職者の就業履歴の行政データを利用して,現実的な条件下でのプロファイリングモデルを評価する。
これらのデータは、競争力のある精度で長期的な失業率を予測するのに使用できることを示すだけでなく、異なる分類方針が公正性に全く異なることを強調する。
したがって、そのようなモデルを実践する前に厳格な監査プロセスを要求します。
関連論文リスト
- Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - From the Fair Distribution of Predictions to the Fair Distribution of Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term Unemployment [3.683202928838613]
この問題に対処するには,展開後のソーシャルグッズ分布の変化を予見する,予測公正性の概念が必要である,と我々は主張する。
私たちは、公共行政からの申請によって導かれています。最近失業した人のうちの誰が長期的に失業するかを予測するアルゴリズムの使用です。
我々は、このようなアルゴリズムによるインフォームドポリシーが、長期失業における男女不平等にどのように影響するかをシミュレートする。
論文 参考訳(メタデータ) (2024-01-25T14:17:11Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Consistent Range Approximation for Fair Predictive Modeling [10.613912061919775]
このフレームワークは、トレーニング中の外部データの可用性に関わらず、ターゲット個体数に対して確実に公正な予測モデルを構築する。
このフレームワークの有効性は、実データの評価を通じて実証され、既存の最先端手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-21T08:27:49Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Long-term dynamics of fairness: understanding the impact of data-driven
targeted help on job seekers [1.357291726431012]
我々は、統計と機械学習を組み合わせたアプローチを用いて、労働市場の介入による長期的な公正効果を評価する。
我々は、求職者を選択的に支援する公共雇用機関による意思決定の影響を調べるためのモデルを開発し、利用する。
実世界のシステムにおけるトレードオフの定量化と長期的公正効果を評価するためには、周辺労働市場の慎重なモデリングが不可欠である。
論文 参考訳(メタデータ) (2022-08-17T12:03:23Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。