論文の概要: Human, Algorithm, or Both? Gender Bias in Human-Augmented Recruiting
- arxiv url: http://arxiv.org/abs/2603.06240v1
- Date: Fri, 06 Mar 2026 13:01:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.773727
- Title: Human, Algorithm, or Both? Gender Bias in Human-Augmented Recruiting
- Title(参考訳): 人間、アルゴリズム、両方? 強化されたリクルートのジェンダーバイアス
- Authors: Mesut Kaya, Toine Bogers,
- Abstract要約: 本研究では,実世界の求人プラットフォームの3つのシナリオにおける性別バイアスの定量的分析を行った。
人間の採用者は、AIのみのソリューションよりも、ジェンダーの観点から公平な候補者のリストを作成している。
私たちの研究は、人間、AI、ハイブリッド採用プロセス間でのフェアネスに関する最初の実証的な比較の1つを提供しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen rapid growth in the market for HR technology and AI-driven HR solutions in particular. This popularity has also resulted in increased attention to the negative aspects of using AI to support hiring practices, such as the risk of reinforcing existing biases against vulnerable groups based on gender or other sensitive attributes. Combining human experience with AI efficiency in making recruiting and selection decisions has the potential to help mitigate these biases, but despite a considerable amount of research on fairness in algorithmic hiring, actual empirical evaluations comparing the fairness of human, AI, and human-augmented decision-making remain scarce. In this study, we address this gap by presenting a quantitative analysis of gender bias across three scenarios of a real-world recruitment platform: (1) recruiters searching a CV database manually for relevant candidates, (2) AI-driven matching between candidates and jobs, and (3) a combination of human and AI-driven recruiting. We find that human recruiters produce lists of candidates that are fairer in terms of gender than the AI-only solution, with more deliberation by humans resulting in fairer outcomes. However, the combination of human and AI-driven is more than the sum of its parts and produces the fairest candidate lists: interacting with the slate of recommended candidates first before manually searching for additional candidates has a beneficial effect on the gender fairness of the set of candidates that are viewed, clicked, and contacted afterwards. Our work provides one of the first empirical comparisons of fairness across human, AI, and hybrid recruiting processes, offering evidence to inform the development of more equitable hiring practices and highlighting the importance of human oversight for mitigating bias in algorithmic hiring.
- Abstract(参考訳): 近年、人事技術やAI駆動の人事ソリューションの市場は急速に成長している。
この人気はまた、性別やその他の機密性の高い属性に基づいた脆弱なグループに対して、既存のバイアスを補強するリスクなど、採用プラクティスをサポートするためにAIを使用することの否定的な側面に注意を向けている。
しかし、アルゴリズムの採用における公正性に関するかなりの研究にもかかわらず、人間、AI、そして人間の増員された意思決定の公平性を比較する実際の実証的な評価は、依然として少ないままである。
本研究では,(1)候補者を手動で検索する採用者,(2)候補者と求職者のAIによるマッチング,(3)人間とAIによる採用の3つのシナリオにまたがる性別バイアスの定量的分析を行うことにより,このギャップに対処する。
人間採用者は、AIのみのソリューションよりも性的に公正な候補者のリストを作成し、人間による検討がより公平な結果をもたらすことがわかった。
しかし、人間とAIを駆使した組み合わせは、その部分の合計以上のものであり、最も公正な候補リストを生成している。
私たちの研究は、人間、AI、ハイブリッド採用プロセスにおけるフェアネスに関する最初の実証的な比較の1つを提供し、より公平な雇用慣行の開発を知らせる証拠を提供し、アルゴリズム採用におけるバイアスを軽減するための人間の監督の重要性を強調します。
関連論文リスト
- No Thoughts Just AI: Biased LLM Hiring Recommendations Alter Human Decision Making and Limit Human Autonomy [8.423021413553464]
人々は、レースベースの選好(バイアス)を示すシミュレーションAIモデルと協力し、16のハイステータスな職業の候補を評価する。
シミュレーションされたAIバイアスは、実世界のAIシステムにおける人種バイアスの事実的および反事実的推定を近似する。
論文 参考訳(メタデータ) (2025-09-04T17:16:26Z) - Human aversion? Do AI Agents Judge Identity More Harshly Than Performance [0.06554326244334868]
我々は,大規模言語モデルに基づくAIエージェントがどのように人間の入力を評価し,統合するかを検討する。
AIシステムは人間のアドバイスを体系的に減らし、アルゴリズムの誤りよりも人間の誤りを厳しく罰する。
論文 参考訳(メタデータ) (2025-03-31T02:05:27Z) - Fairness in AI-Driven Recruitment: Challenges, Metrics, Methods, and Future Directions [0.0]
改革プロセスは、組織のパフォーマンス、生産性、文化に大きな影響を与えます。
本稿では、AIによる採用システムで特定されるバイアスを体系的にレビューし、公正度指標とバイアス軽減手法を分類し、実際に使用される監査手法を強調した。
論文 参考訳(メタデータ) (2024-05-30T05:25:14Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - PECAN: Leveraging Policy Ensemble for Context-Aware Zero-Shot Human-AI
Coordination [52.991211077362586]
本研究では,集団におけるパートナーの多様性を高めるための政策アンサンブル手法を提案する。
そこで我々は,egoエージェントがパートナーの潜在的ポリシープリミティブを分析し,識別するためのコンテキスト認識手法を開発した。
このようにして、エゴエージェントは多様なパートナーとの共同作業において、より普遍的な協調行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-01-16T12:14:58Z) - Skill Preferences: Learning to Extract and Execute Robotic Skills from
Human Feedback [82.96694147237113]
Skill Preferencesは、人間の好みよりもモデルを学習し、オフラインデータから人間に沿ったスキルを抽出するアルゴリズムである。
SkiPは複雑なマルチステップ操作タスクをシミュレートしたキッチンロボットで実現できることを示す。
論文 参考訳(メタデータ) (2021-08-11T18:04:08Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。