論文の概要: On Statistical Discrimination as a Failure of Social Learning: A
Multi-Armed Bandit Approach
- arxiv url: http://arxiv.org/abs/2010.01079v6
- Date: Fri, 14 Jul 2023 15:53:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 17:47:31.311801
- Title: On Statistical Discrimination as a Failure of Social Learning: A
Multi-Armed Bandit Approach
- Title(参考訳): 社会的学習の失敗としての統計的差別について-マルチアーマッドバンドアプローチ
- Authors: Junpei Komiyama and Shunya Noda
- Abstract要約: 多腕バンディットモデルを用いて、雇用市場における統計的差別を分析する。
本稿では,新しい補助則(ハイブリッド・メカニズム)とルーニー・ルール(ルーニー・ルール)の2つの政策解を提案する。
- 参考スコア(独自算出の注目度): 3.096615629099617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze statistical discrimination in hiring markets using a multi-armed
bandit model. Myopic firms face workers arriving with heterogeneous observable
characteristics. The association between the worker's skill and characteristics
is unknown ex ante; thus, firms need to learn it. Laissez-faire causes
perpetual underestimation: minority workers are rarely hired, and therefore,
the underestimation tends to persist. Even a marginal imbalance in the
population ratio frequently results in perpetual underestimation. We propose
two policy solutions: a novel subsidy rule (the hybrid mechanism) and the
Rooney Rule. Our results indicate that temporary affirmative actions
effectively alleviate discrimination stemming from insufficient data.
- Abstract(参考訳): 多腕バンディットモデルを用いて、雇用市場における統計的差別を分析する。
美容企業は、異質な観察可能な特徴を持つ労働者に直面しています。
労働者の技能と特徴の関連性は不明であり、企業はそれを学ぶ必要がある。
マイノリティ労働者は滅多に雇用されないため、過小評価は継続する傾向がある。
人口比の限界不均衡でさえ、しばしば恒久的な過小評価をもたらす。
本稿では,新しい補助則(ハイブリッド機構)とルーニー則の2つの政策解を提案する。
以上の結果から,一時的肯定行動は,不十分なデータから生じる差別を効果的に緩和することが明らかとなった。
関連論文リスト
- Long-Term Fairness in Sequential Multi-Agent Selection with Positive Reinforcement [21.44063458579184]
大学入学や採用のような選抜プロセスでは、少数派からの応募者に対する偏見は肯定的なフィードバックをもたらすと仮定される。
グリーディスコアとフェアネスのバランスをとるマルチエージェント・フェア・グリーディ政策を提案する。
以上の結果から, 正の強化は長期的公正性にとって有望なメカニズムであるが, 進化モデルの変動に頑健な政策を慎重に設計する必要があることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T04:03:23Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Aleatoric and Epistemic Discrimination: Fundamental Limits of Fairness Interventions [13.279926364884512]
機械学習モデルは、モデル開発時の選択とデータ固有のバイアスにより、特定の人口群で過小評価される可能性がある。
フェアネス制約下でのモデルの性能限界を決定することにより,アレータリック判別の定量化を行う。
本研究では, 公平性制約を適用した際のモデルの精度と, アレタリック判別による限界とのギャップとして, てんかんの判別を定量化する。
論文 参考訳(メタデータ) (2023-01-27T15:38:20Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Optimising Equal Opportunity Fairness in Model Training [60.0947291284978]
既存のデバイアス法、例えば、敵の訓練や、表現から保護された情報を取り除くことは、バイアスを減らすことが示されている。
2つの新たな学習目標を提案し,2つの分類課題における高い性能を維持しつつ,バイアスの低減に有効であることを示す。
論文 参考訳(メタデータ) (2022-05-05T01:57:58Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Fairness in Algorithmic Profiling: A German Case Study [0.0]
本研究では、求職者の長期失業リスクを予測するための統計モデルを比較し、評価する。
これらのモデルは、競争力のある精度で長期失業を予測するために使用できることを示す。
異なる分類ポリシーは、非常に異なる公平性をもたらすことを強調する。
論文 参考訳(メタデータ) (2021-08-04T13:43:42Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Measuring Social Biases of Crowd Workers using Counterfactual Queries [84.10721065676913]
性別、人種などに基づく社会的バイアスは、主にバイアス付きトレーニングデータセットを介して、汚染された機械学習(ML)パイプラインに示されている。
クラウドソーシング(Crowdsourcing)は、ラベル付きトレーニングデータセットを収集するための一般的な費用効果尺度であり、群衆労働者の社会的偏見に免疫がない。
本研究では, 集団労働者ごとの社会的バイアスの程度を定量化するための, 対実的公正度に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-04T21:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。