論文の概要: Does Fair Ranking Improve Minority Outcomes? Understanding the Interplay
of Human and Algorithmic Biases in Online Hiring
- arxiv url: http://arxiv.org/abs/2012.00423v2
- Date: Thu, 8 Apr 2021 09:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 19:32:42.407397
- Title: Does Fair Ranking Improve Minority Outcomes? Understanding the Interplay
of Human and Algorithmic Biases in Online Hiring
- Title(参考訳): 公平なランキングは少数派の結果を改善するか?
オンライン雇用における人的・アルゴリズム的バイアスの相互作用の理解
- Authors: Tom S\"uhr, Sophie Hilgard, Himabindu Lakkaraju
- Abstract要約: 我々は、雇用者の仕事状況や固有のバイアスなど、オンライン雇用プラットフォームにおける性別バイアスの源泉を分析した。
結果から, 公平なランキングアルゴリズムは, 少数民族の選抜率を向上するが, 求職状況や候補者のプロファイルに大きく依存していることが示唆された。
- 参考スコア(独自算出の注目度): 9.21721532941863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ranking algorithms are being widely employed in various online hiring
platforms including LinkedIn, TaskRabbit, and Fiverr. Prior research has
demonstrated that ranking algorithms employed by these platforms are prone to a
variety of undesirable biases, leading to the proposal of fair ranking
algorithms (e.g., Det-Greedy) which increase exposure of underrepresented
candidates. However, there is little to no work that explores whether fair
ranking algorithms actually improve real world outcomes (e.g., hiring
decisions) for underrepresented groups. Furthermore, there is no clear
understanding as to how other factors (e.g., job context, inherent biases of
the employers) may impact the efficacy of fair ranking in practice. In this
work, we analyze various sources of gender biases in online hiring platforms,
including the job context and inherent biases of employers and establish how
these factors interact with ranking algorithms to affect hiring decisions. To
the best of our knowledge, this work makes the first attempt at studying the
interplay between the aforementioned factors in the context of online hiring.
We carry out a largescale user study simulating online hiring scenarios with
data from TaskRabbit, a popular online freelancing site. Our results
demonstrate that while fair ranking algorithms generally improve the selection
rates of underrepresented minorities, their effectiveness relies heavily on the
job contexts and candidate profiles.
- Abstract(参考訳): ランキングアルゴリズムはLinkedIn、TaskRabbit、Fiverrなど、さまざまなオンライン採用プラットフォームで広く採用されている。
以前の研究では、これらのプラットフォームで採用されるランキングアルゴリズムは様々な望ましくないバイアスの傾向を示しており、未表現候補の露出を増加させる公正ランキングアルゴリズム(Det-Greedyなど)が提案されている。
しかし、公平なランク付けアルゴリズムが実世界の成果(例えば、雇用決定)を実際に改善するかどうかを探求する作業はほとんどないし全くない。
さらに、他の要因(仕事の文脈や雇用者の固有のバイアスなど)が、実際に公正なランキングの有効性にどのように影響するか、明確な理解もできない。
本研究では、雇用者の仕事状況や固有のバイアスなど、オンライン雇用プラットフォームにおけるジェンダーバイアスのさまざまな源泉を分析し、これらの要因が雇用決定に影響を与えるランキングアルゴリズムとどのように相互作用するかを明らかにする。
我々の知る限り、この研究は、オンライン雇用の文脈における上記の要因間の相互作用を研究する最初の試みである。
オンラインフリーランシングサイトtaskrabbitのデータを用いて,オンライン採用シナリオをシミュレーションした大規模ユーザ調査を実施した。
その結果,公平なランキングアルゴリズムは少数民族の選択率を改善するが,その効果は職の文脈や候補者プロファイルに大きく依存することがわかった。
関連論文リスト
- Understanding the performance gap between online and offline alignment algorithms [63.137832242488926]
オフラインのアルゴリズムは、ペアの分類が得意になるようにポリシーを訓練し、オンラインのアルゴリズムは世代ごとに良いことを示しています。
このことは、識別能力と生成能力の間のユニークな相互作用を示唆しており、これはサンプリングプロセスに大きく影響している。
我々の研究は、AIアライメントにおけるオンラインサンプリングの重要な役割に光を当て、オフラインアライメントアルゴリズムのある種の根本的な課題を示唆している。
論文 参考訳(メタデータ) (2024-05-14T09:12:30Z) - Whole Page Unbiased Learning to Rank [59.52040055543542]
アンバイアスド・ラーニング・トゥ・ランク(ULTR)アルゴリズムは、バイアスド・クリックデータを用いたアンバイアスド・ランキングモデルを学ぶために提案される。
本稿では,BALというアルゴリズムをランク付けするバイアス非依存学習を提案する。
実世界のデータセットによる実験結果から,BALの有効性が検証された。
論文 参考訳(メタデータ) (2022-10-19T16:53:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Choosing an algorithmic fairness metric for an online marketplace:
Detecting and quantifying algorithmic bias on LinkedIn [0.21756081703275995]
等資格候補に対する等機会の公平性の概念から、アルゴリズム的公正度計量を導出する。
提案手法は、LinkedInが使用している2つのアルゴリズムの性別に関するアルゴリズムバイアスを計測し、定量化する。
論文 参考訳(メタデータ) (2022-02-15T10:33:30Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - When Fair Ranking Meets Uncertain Inference [5.33312437416961]
実システムから導かれる人口統計学的推論が、いかに不公平なランキングにつながるかを示す。
この結果から,推定された人口統計データを公正なランキングアルゴリズムの入力として使用するべきではないことが示唆された。
論文 参考訳(メタデータ) (2021-05-05T14:40:07Z) - Algorithms are not neutral: Bias in collaborative filtering [0.0]
アルゴリズムバイアスの議論は、データまたはアルゴリズムを構築している人々が偏っている例に焦点を当てる傾向がある。
これは、人気に悩まされ、バイアスを均質化することで知られる協調フィルタリングの例で示される。
人気と均質化バイアスは、すでに限界を更に限界化させる効果があります。
論文 参考訳(メタデータ) (2021-05-03T17:28:43Z) - Auditing for Discrimination in Algorithms Delivering Job Ads [70.02478301291264]
我々は,求人広告配信における識別アルゴリズムのブラックボックス監査のための新しい手法を開発した。
最初のコントリビューションは、性別や人種などの保護されたカテゴリーによる、広告配信における歪の区別です。
第2に,他の要因と資格の違いによって説明可能なスクリューを区別する監査手法を開発する。
第3に、提案手法を求人広告のための2つの主要なターゲット広告プラットフォーム、FacebookとLinkedInに適用する。
論文 参考訳(メタデータ) (2021-04-09T17:38:36Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets [28.537935838669423]
ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-04T02:53:09Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。