論文の概要: Gender, Race, and Intersectional Bias in Resume Screening via Language Model Retrieval
- arxiv url: http://arxiv.org/abs/2407.20371v2
- Date: Tue, 20 Aug 2024 21:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 21:46:26.844631
- Title: Gender, Race, and Intersectional Bias in Resume Screening via Language Model Retrieval
- Title(参考訳): 言語モデル検索による検索におけるジェンダー, レース, インターセクションのバイアス
- Authors: Kyra Wilson, Aylin Caliskan,
- Abstract要約: 文書検索フレームワークを用いて,履歴書のスクリーニング設定において,大規模言語モデル (LLM) を用いることの可能性を検討する。
次に、履歴スクリーニングシナリオにおいて、MTE(Massive Text Embedding)モデルの選択がバイアスされているかどうかを判定するために、履歴監査を行う。
MTEは偏りがあり、85.1%のケースでは白人関連、11.1%のケースでは女性関連である。
- 参考スコア(独自算出の注目度): 5.122502168590131
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence (AI) hiring tools have revolutionized resume screening, and large language models (LLMs) have the potential to do the same. However, given the biases which are embedded within LLMs, it is unclear whether they can be used in this scenario without disadvantaging groups based on their protected attributes. In this work, we investigate the possibilities of using LLMs in a resume screening setting via a document retrieval framework that simulates job candidate selection. Using that framework, we then perform a resume audit study to determine whether a selection of Massive Text Embedding (MTE) models are biased in resume screening scenarios. We simulate this for nine occupations, using a collection of over 500 publicly available resumes and 500 job descriptions. We find that the MTEs are biased, significantly favoring White-associated names in 85.1\% of cases and female-associated names in only 11.1\% of cases, with a minority of cases showing no statistically significant differences. Further analyses show that Black males are disadvantaged in up to 100\% of cases, replicating real-world patterns of bias in employment settings, and validate three hypotheses of intersectionality. We also find an impact of document length as well as the corpus frequency of names in the selection of resumes. These findings have implications for widely used AI tools that are automating employment, fairness, and tech policy.
- Abstract(参考訳): 人工知能(AI)の採用ツールは履歴スクリーニングに革命をもたらし、大規模言語モデル(LLM)も同様の可能性を秘めている。
しかし, LLM内に埋め込まれたバイアスを考えると, 保護属性に基づいてグループを改良することなく, このシナリオで使用することができるかどうかは不明である。
本研究では,ジョブ候補選択をシミュレートする文書検索フレームワークを用いて,履歴書のスクリーニング設定においてLLMを使用する可能性を検討する。
このフレームワークを用いて、再試行監査を行い、マステキスト埋め込み(MTE)モデルの選択が履歴スクリーニングシナリオに偏っているかどうかを判定する。
我々は、500以上の公開履歴書と500以上のジョブ記述を使って、これを9つの職業にシミュレートする。
MTEは偏りがあり、85.1\%のケースでは白人関連、わずか11.1\%のケースでは女性関連、統計学的に有意な差がないケースは少数である。
さらに分析したところ、黒人男性は最大100 %のケースで不利であり、雇用環境における実際の偏見パターンを再現し、交叉性の3つの仮説を検証している。
また,履歴書の選択において,文書の長さや名称のコーパス頻度の影響も見いだす。
これらの発見は、雇用、公正、および技術ポリシーを自動化している広く使われているAIツールに影響を及ぼす。
関連論文リスト
- Profiling Bias in LLMs: Stereotype Dimensions in Contextual Word Embeddings [1.5379084885764847]
大規模言語モデル(LLM)は、人工知能(AI)の現在の成功の基礎である。
リスクを効果的に伝達し、緩和努力を促進するために、これらのモデルは識別特性を適切に直感的に記述する必要がある。
社会心理学研究の辞書に基づくステレオタイプ次元に関するバイアスプロファイルを提案する。
論文 参考訳(メタデータ) (2024-11-25T16:14:45Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - JobFair: A Framework for Benchmarking Gender Hiring Bias in Large Language Models [12.12628747941818]
本稿では,Large Language Models (LLMs) における階層的ジェンダー採用バイアスのベンチマークを行うための新しいフレームワークを提案する。
我々は、労働経済学、法原則、現在のバイアスベンチマークの批判に根ざした新しい構成を導入する。
我々は、現在最先端の10のLCMにおける性別採用バイアスを分析する。
論文 参考訳(メタデータ) (2024-06-17T09:15:57Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Are Emily and Greg Still More Employable than Lakisha and Jamal?
Investigating Algorithmic Hiring Bias in the Era of ChatGPT [24.496590819263865]
GPT-3.5、Bard、Claudeといった大規模言語モデル(LLM)は、様々なタスクに適用可能である。
本研究では,(1)履歴書と職種とのマッチング,(2)履歴書と雇用関連情報との要約の2つの課題についてLCMを評価した。
総じて、LSMは人種や性別で頑丈であり、妊娠状態や政治的親戚関係におけるパフォーマンスが異なる。
論文 参考訳(メタデータ) (2023-10-08T12:08:48Z) - Investigating Subtler Biases in LLMs: Ageism, Beauty, Institutional, and Nationality Bias in Generative Models [0.0]
本稿では, 年齢や美しさなど, 研究の少ない, 連続的な, 次元に沿ったバイアスについて検討する。
実験心理学において, LLMは, 特定の社会集団に対して, 肯定的, 否定的感情の偏見を広く抱いているか, あるいは「美しいものは良い」バイアスと類似しているかを問う。
論文 参考訳(メタデータ) (2023-09-16T07:07:04Z) - Large Language Models Are Not Robust Multiple Choice Selectors [117.72712117510953]
複数選択質問(MCQ)は、大規模言語モデル(LLM)の評価において、一般的なが重要なタスク形式として機能する。
この研究は、現代のLLMが、その固有の「選択バイアス」によるオプション位置変化に対して脆弱であることを示している。
そこで本研究では,オプションIDに対する事前バイアスを全体予測分布から分離するPriDeという,ラベルのない推論時間脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T17:44:56Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Learning Effective Representations for Person-Job Fit by Feature Fusion [4.884826427985207]
Person-job fitは、機械学習アルゴリズムを使用して、オンライン採用プラットフォーム上の候補者と求職者をマッチングする。
本稿では,機能融合による候補者と求職者の包括的かつ効果的な表現を学習することを提案する。
10ヶ月にわたる実データ実験により、我々のソリューションは既存の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-06-12T09:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。