論文の概要: Gender and Positional Biases in LLM-Based Hiring Decisions: Evidence from Comparative CV/Résumé Evaluations
- arxiv url: http://arxiv.org/abs/2505.17049v2
- Date: Tue, 27 May 2025 00:07:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:19.8541
- Title: Gender and Positional Biases in LLM-Based Hiring Decisions: Evidence from Comparative CV/Résumé Evaluations
- Title(参考訳): LLM採用決定における性差と位置バイアス--CV/Résuméの比較から
- Authors: David Rozado,
- Abstract要約: 本研究は,言語モデル (LLM) の履歴やCVに基づく職業的候補の評価における行動について検討する。
すべてのLLMは、70の異なる職業にまたがる女性の名前の候補者を一貫して好んだ。
CVに性フィールド(男性/女性)を追加することで、女性応募者の嗜好がさらに高まった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study examines the behavior of Large Language Models (LLMs) when evaluating professional candidates based on their resumes or curricula vitae (CVs). In an experiment involving 22 leading LLMs, each model was systematically given one job description along with a pair of profession-matched CVs, one bearing a male first name, the other a female first name, and asked to select the more suitable candidate for the job. Each CV pair was presented twice, with names swapped to ensure that any observed preferences in candidate selection stemmed from gendered names cues. Despite identical professional qualifications across genders, all LLMs consistently favored female-named candidates across 70 different professions. Adding an explicit gender field (male/female) to the CVs further increased the preference for female applicants. When gendered names were replaced with gender-neutral identifiers "Candidate A" and "Candidate B", several models displayed a preference to select "Candidate A". Counterbalancing gender assignment between these gender-neutral identifiers resulted in gender parity in candidate selection. When asked to rate CVs in isolation rather than compare pairs, LLMs assigned slightly higher average scores to female CVs overall, but the effect size was negligible. Including preferred pronouns (he/him or she/her) next to a candidate's name slightly increased the odds of the candidate being selected regardless of gender. Finally, most models exhibited a substantial positional bias to select the candidate listed first in the prompt. These findings underscore the need for caution when deploying LLMs in high-stakes autonomous decision-making contexts and raise doubts about whether LLMs consistently apply principled reasoning.
- Abstract(参考訳): 本研究は, 言語モデル (LLM) の履歴やCVに基づいて, 職業的候補者の行動を評価するものである。
先進的なLLM22社を対象とした実験では,各モデルに1組の職業対応CVと1組の男性ファーストネーム,もう1つは女性ファーストネームを付与し,より適した候補を選ぶよう依頼した。
各CVペアは2回提示され、性別の異なる名前から派生した候補選択の選好を確実にするために名前が交換された。
性別で同一の職業資格があったにもかかわらず、全てのLSMは一貫して70の異なる職業で女性の名前の候補者を好んだ。
CVに性フィールド(男性/女性)を追加することで、女性応募者の嗜好がさらに高まった。
性別付き名前を「Candidate A」と「Candidate B」に置き換えると、いくつかのモデルでは「Candidate A」を選択した。
これらの性別中性識別子間の性別割当は、候補選択における性別割当となった。
LLMは、ペア比較ではなく、単独でCVを評価するよう依頼された際、平均スコアを女性CVにわずかに高めに割り当てたが、効果の大きさは無視できた。
候補者名の横にある好みの代名詞(彼または彼女)を含めると、性別に関係なく候補者が選ばれる確率はわずかに増加した。
最後に、ほとんどのモデルは、プロンプトで最初にリストされた候補を選択するために、かなりの位置バイアスを示した。
これらの知見は,LLMを高度に自律的な意思決定コンテキストに展開する際の注意が必要であること,LLMが原則的推論を一貫して適用しているかどうかに疑問を呈するものである。
関連論文リスト
- Who Gets the Callback? Generative AI and Gender Bias [0.030693357740321777]
大規模言語モデル(LLM)は特に高賃金の役割において男性を好む傾向にある。
求人広告における言語的特徴の包括的分析は、モデルレコメンデーションと伝統的なジェンダーステレオタイプとの強い整合性を示す。
我々の調査結果は、AIによる雇用が労働市場のバイアスを持続させ、企業内の公正性と多様性に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2025-04-30T07:55:52Z) - On the Mutual Influence of Gender and Occupation in LLM Representations [24.011789371260708]
LLMにおけるファーストネームの職業と性別の知覚が相互にどのように影響するかを考察する。
LLMのファーストネームのジェンダー表現は、その名前に関連する実世界のジェンダー統計と相関し、ステレオタイプによる女性や男性の仕事の共起に影響されている。
論文 参考訳(メタデータ) (2025-03-09T22:11:30Z) - Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - "You Gotta be a Doctor, Lin": An Investigation of Name-Based Bias of Large Language Models in Employment Recommendations [29.183942575629214]
我々はGPT-3.5-TurboとLlama 3-70B-Instructを利用して、人種や性別を強く示す320のファーストネームを持つ候補者の雇用決定と給与勧告をシミュレートする。
以上の結果から,40の職種にまたがる他の人口集団よりも,白人女性の名前を持つ候補者を雇用する傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-18T03:11:43Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。