論文の概要: An External Fairness Evaluation of LinkedIn Talent Search
- arxiv url: http://arxiv.org/abs/2511.10752v1
- Date: Thu, 13 Nov 2025 19:10:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.30791
- Title: An External Fairness Evaluation of LinkedIn Talent Search
- Title(参考訳): LinkedInタレント検索の外部公正性評価
- Authors: Tina Behzad, Siddartha Devic, Vatsal Sharan, Aleksandra Korolova, David Kempe,
- Abstract要約: LinkedInのTalent Searchランキングシステムのバイアスに対する、独立したサードパーティによる監査を行います。
我々は、性別と人種の2つの属性にまたがる潜在的なランキングバイアスに焦点を当てている。
我々の分析は、初期階級の少数派を過小評価していることを示している。
- 参考スコア(独自算出の注目度): 55.18656975953939
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We conduct an independent, third-party audit for bias of LinkedIn's Talent Search ranking system, focusing on potential ranking bias across two attributes: gender and race. To do so, we first construct a dataset of rankings produced by the system, collecting extensive Talent Search results across a diverse set of occupational queries. We then develop a robust labeling pipeline that infers the two demographic attributes of interest for the returned users. To evaluate potential biases in the collected dataset of real-world rankings, we utilize two exposure disparity metrics: deviation from group proportions and MinSkew. Our analysis reveals an under-representation of minority groups in early ranks across many queries. We further examine potential causes of this disparity, and discuss why they may be difficult or, in some cases, impossible to fully eliminate among the early ranks of queries. Beyond static metrics, we also investigate the concept of subgroup fairness over time, highlighting temporal disparities in exposure and retention, which are often more difficult to audit for in practice. In employer recruiting platforms such as LinkedIn Talent Search, the persistence of a particular candidate over multiple days in the ranking can directly impact the probability that the given candidate is selected for opportunities. Our analysis reveals demographic disparities in this temporal stability, with some groups experiencing greater volatility in their ranked positions than others. We contextualize all our findings alongside LinkedIn's published self-audits of its Talent Search system and reflect on the methodological constraints of a black-box external evaluation, including limited observability and noisy demographic inference.
- Abstract(参考訳): 我々は、LinkedInのTalent Searchランキングシステムのバイアスに対する独立したサードパーティの監査を行い、性別と人種の2つの属性にわたる潜在的なランキングバイアスに焦点を当てます。
そこで本研究では,まずシステムによって作成されるランキングのデータセットを構築し,多様な職業的クエリにまたがる広範囲なタレント検索結果を収集する。
次に、頑健なラベル付けパイプラインを開発し、返却されたユーザに対する2つの統計特性を推測する。
実世界のランキングの収集したデータセットの潜在的なバイアスを評価するために,グループ比からの偏差とMinSkewの2つの露光格差指標を用いた。
分析の結果,多くの問合せにおいて,初期ランクの少数派が不足していることが判明した。
さらに、この格差の潜在的な原因について検討し、なぜそれらが難しいのか、場合によってはクエリの初期段階で完全に排除できないのかについて議論する。
静的なメトリクス以外にも、時間とともにサブグループフェアネスの概念を調査し、露光と保持の時間的格差を強調します。
LinkedIn Talent Searchのような雇用者採用プラットフォームでは、ランキングの数日にわたる特定の候補者の永続性は、与えられた候補者が機会のために選択される確率に直接影響する。
我々の分析では、この時間的安定性における人口格差が明らかであり、一部のグループでは、他のグループよりも高いボラティリティを経験している。
我々は、LinkedInが公開したTalent Searchシステムの自己オーディットとともに、すべての発見を文脈的に分析し、ブラックボックス外部評価の方法論的制約を反映する。
関連論文リスト
- FAIRE: Assessing Racial and Gender Bias in AI-Driven Resume Evaluations [3.9681649902019136]
本研究では,大言語モデル (LLM) における人種的, 性別的偏見を評価するためのベンチマーク「FAIRE」を導入する。
以上の結果から,どのモデルにもある程度のバイアスが生じるが,大きさや方向は様々であることがわかった。
AIによる採用のバイアスを減らすための戦略が緊急に必要である点を強調している。
論文 参考訳(メタデータ) (2025-04-02T07:11:30Z) - Small Changes, Large Consequences: Analyzing the Allocational Fairness of LLMs in Hiring Contexts [19.20592062296075]
大規模言語モデル(LLM)は、採用のような高度なアプリケーションにますますデプロイされている。
本研究は、実際の人事利用を反映した2つのタスクを通して、LLMベースの採用システムの割当公平性を検討する。
論文 参考訳(メタデータ) (2025-01-08T07:28:10Z) - Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Individually Fair Learning with One-Sided Feedback [15.713330010191092]
我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
論文 参考訳(メタデータ) (2022-06-09T12:59:03Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。