論文の概要: Do Large Language Models Discriminate in Hiring Decisions on the Basis of Race, Ethnicity, and Gender?
- arxiv url: http://arxiv.org/abs/2406.10486v1
- Date: Sat, 15 Jun 2024 03:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 00:12:44.315026
- Title: Do Large Language Models Discriminate in Hiring Decisions on the Basis of Race, Ethnicity, and Gender?
- Title(参考訳): 人種・民族・ジェンダーに関する雇用決定において、大規模言語モデルは区別されるか?
- Authors: Haozhe An, Christabel Acquaye, Colin Wang, Zongxia Li, Rachel Rudinger,
- Abstract要約: 大規模言語モデル(LLM)が雇用決定において人種と性別に基づく名前の差別を示すか否かを検討する。
我々は、LLMに対して、雇用決定を告げるメールを書くための一連のテンポラティックなプロンプトを設計する。
応募者のファーストネームを操作することで、LLMが受信メールや拒否メールを生成する確率に対する、認識された人種、民族、性別の影響を測定する。
- 参考スコア(独自算出の注目度): 15.362940175441048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We examine whether large language models (LLMs) exhibit race- and gender-based name discrimination in hiring decisions, similar to classic findings in the social sciences (Bertrand and Mullainathan, 2004). We design a series of templatic prompts to LLMs to write an email to a named job applicant informing them of a hiring decision. By manipulating the applicant's first name, we measure the effect of perceived race, ethnicity, and gender on the probability that the LLM generates an acceptance or rejection email. We find that the hiring decisions of LLMs in many settings are more likely to favor White applicants over Hispanic applicants. In aggregate, the groups with the highest and lowest acceptance rates respectively are masculine White names and masculine Hispanic names. However, the comparative acceptance rates by group vary under different templatic settings, suggesting that LLMs' race- and gender-sensitivity may be idiosyncratic and prompt-sensitive.
- Abstract(参考訳): 大規模言語モデル (LLM) が, 社会科学における古典的な発見(Bertrand, Mullainathan, 2004) と同様, 雇用決定における人種と性別に基づく名前の差別を示すか否かを検討する。
我々は、LLMに対して、雇用決定を告げるメールを書くための一連のテンポラティックなプロンプトを設計する。
応募者のファーストネームを操作することで、LLMが受信メールや拒否メールを生成する確率に対する、認識された人種、民族、性別の影響を測定する。
LLMの雇用決定は、ヒスパニック系の応募者よりも白人の応募者の方が好まれる傾向にある。
総じて、最も高い受理率の集団は、それぞれ白人男性名とヒスパニック男性名である。
しかし、グループごとの受容率は、異なる温度条件下で異なるため、LLMの人種感受性と性別感受性は、慣用的かつ即効性である可能性が示唆されている。
関連論文リスト
- What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages [51.0349882045866]
本稿では,Large Language Models (LLMs) の文法的ジェンダーのレンズによるバイアスについて検討する。
様々な言語における形容詞を持つ名詞を記述するためのモデルを提案し,特に文法性のある言語に焦点を当てた。
単純な分類器は、偶然以上の名詞の性別を予測できるだけでなく、言語間の移動可能性も示せる。
論文 参考訳(メタデータ) (2024-07-12T22:10:16Z) - Evaluation of Bias Towards Medical Professionals in Large Language Models [11.450991679521605]
GPT-4, Claude-3, Mistral-Largeは, 医療従事者の居住選択に有意な性差と人種的偏見を示した。
実験の結果、ヒスパニック系の女性とアジア系の男性に対して、様々な専門分野の強い嗜好が示された。
論文 参考訳(メタデータ) (2024-06-30T05:55:55Z) - "You Gotta be a Doctor, Lin": An Investigation of Name-Based Bias of Large Language Models in Employment Recommendations [29.183942575629214]
我々はGPT-3.5-TurboとLlama 3-70B-Instructを利用して、人種や性別を強く示す320のファーストネームを持つ候補者の雇用決定と給与勧告をシミュレートする。
以上の結果から,40の職種にまたがる他の人口集団よりも,白人女性の名前を持つ候補者を雇用する傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-18T03:11:43Z) - The Silicon Ceiling: Auditing GPT's Race and Gender Biases in Hiring [0.9499648210774584]
一般に使われている1つの大きな言語モデルにおいて、人種と性別の偏りのアルゴリズム監査を行う。
モデルがステレオタイプに基づくバイアスを反映していることが分かる。
女性の履歴書には経験の少ない職業があり、アジアやヒスパニックの履歴書には移民のマーカーがあった。
論文 参考訳(メタデータ) (2024-05-07T15:39:45Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
言語エージェンシーは、テキストにおける社会的偏見を評価する上で重要な側面である。
従来の研究はしばしば、エージェント語と共用語を識別する文字列マッチング技術に依存していた。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Aligning with Whom? Large Language Models Have Gender and Racial Biases
in Subjective NLP Tasks [15.015148115215315]
我々は4つのポピュラーな大言語モデル(LLM)の実験を行い、集団差と潜在的なバイアスを理解する能力について、丁寧さと不快さの予測について検討する。
どちらのタスクでも、モデル予測は白人と女性の参加者のラベルに近いことが分かりました。
より具体的には、"ブラック"と"アジア"個人の観点から反応するよう促された場合、モデルは、対応するグループからのスコアだけでなく、全体的なスコアを予測する際のパフォーマンスを低下させる。
論文 参考訳(メタデータ) (2023-11-16T10:02:24Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Are Emily and Greg Still More Employable than Lakisha and Jamal?
Investigating Algorithmic Hiring Bias in the Era of ChatGPT [24.496590819263865]
GPT-3.5、Bard、Claudeといった大規模言語モデル(LLM)は、様々なタスクに適用可能である。
本研究では,(1)履歴書と職種とのマッチング,(2)履歴書と雇用関連情報との要約の2つの課題についてLCMを評価した。
総じて、LSMは人種や性別で頑丈であり、妊娠状態や政治的親戚関係におけるパフォーマンスが異なる。
論文 参考訳(メタデータ) (2023-10-08T12:08:48Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。