論文の概要: Are Emily and Greg Still More Employable than Lakisha and Jamal?
Investigating Algorithmic Hiring Bias in the Era of ChatGPT
- arxiv url: http://arxiv.org/abs/2310.05135v1
- Date: Sun, 8 Oct 2023 12:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 12:13:52.978650
- Title: Are Emily and Greg Still More Employable than Lakisha and Jamal?
Investigating Algorithmic Hiring Bias in the Era of ChatGPT
- Title(参考訳): エミリーとグレッグはいまだにラキシャとジャマルよりも雇用可能か?
ChatGPT時代のアルゴリズム採用バイアスの調査
- Authors: Akshaj Kumar Veldanda, Fabian Grob, Shailja Thakur, Hammond Pearce,
Benjamin Tan, Ramesh Karri, Siddharth Garg
- Abstract要約: GPT-3.5、Bard、Claudeといった大規模言語モデル(LLM)は、様々なタスクに適用可能である。
本研究では,(1)履歴書と職種とのマッチング,(2)履歴書と雇用関連情報との要約の2つの課題についてLCMを評価した。
総じて、LSMは人種や性別で頑丈であり、妊娠状態や政治的親戚関係におけるパフォーマンスが異なる。
- 参考スコア(独自算出の注目度): 24.496590819263865
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) such as GPT-3.5, Bard, and Claude exhibit
applicability across numerous tasks. One domain of interest is their use in
algorithmic hiring, specifically in matching resumes with job categories. Yet,
this introduces issues of bias on protected attributes like gender, race and
maternity status. The seminal work of Bertrand & Mullainathan (2003) set the
gold-standard for identifying hiring bias via field experiments where the
response rate for identical resumes that differ only in protected attributes,
e.g., racially suggestive names such as Emily or Lakisha, is compared. We
replicate this experiment on state-of-art LLMs (GPT-3.5, Bard, Claude and
Llama) to evaluate bias (or lack thereof) on gender, race, maternity status,
pregnancy status, and political affiliation. We evaluate LLMs on two tasks: (1)
matching resumes to job categories; and (2) summarizing resumes with employment
relevant information. Overall, LLMs are robust across race and gender. They
differ in their performance on pregnancy status and political affiliation. We
use contrastive input decoding on open-source LLMs to uncover potential sources
of bias.
- Abstract(参考訳): gpt-3.5、bard、claudeといった大規模言語モデル(llm)は、様々なタスクに適用可能である。
興味のある分野の1つは、アルゴリズムの雇用、特に履歴書と職種を合わせることである。
しかし、これは性別、人種、母性といった保護された属性に偏りをもたらす。
Bertrand & Mullainathan (2003) のセミナルな研究は、エミリーやラキシャのような人種的に推奨される名前のような保護された属性でのみ異なる同一の履歴書に対する応答率が比較されるフィールド実験を通じて、雇用バイアスを特定するための金の基準を定めている。
我々は、この実験を最先端のLSM(GPT-3.5, Bard, Claude, Llama)で再現し、性別、人種、母性状態、妊娠状態、および政治的関連性に対する偏見(またはその欠如)を評価する。
我々は,(1)履歴書と業務カテゴリのマッチング,(2)履歴書と業務関連情報の要約という2つのタスクについてllmを評価する。
総じて、LSMは人種や性別で堅牢である。
彼らは妊娠状態と政治的親戚関係におけるパフォーマンスが異なる。
オープンソースLLMのコントラスト型入力復号法を用いてバイアスの発生源を明らかにする。
関連論文リスト
- Gender Bias in LLM-generated Interview Responses [1.6124402884077915]
本研究は, モデル, 質問タイプ, 職種にまたがって, LLM生成面接応答の多面的監査を行うための3つのLCMを評価した。
その結果,男女の偏見は一貫しており,性別のステレオタイプや仕事の優位性と密接に一致していることが判明した。
論文 参考訳(メタデータ) (2024-10-28T05:08:08Z) - Gender, Race, and Intersectional Bias in Resume Screening via Language Model Retrieval [5.122502168590131]
文書検索フレームワークを用いて,履歴書のスクリーニング設定において,大規模言語モデル (LLM) を用いることの可能性を検討する。
次に、履歴スクリーニングシナリオにおいて、MTE(Massive Text Embedding)モデルの選択がバイアスされているかどうかを判定するために、履歴監査を行う。
MTEは偏りがあり、85.1%のケースでは白人関連、11.1%のケースでは女性関連である。
論文 参考訳(メタデータ) (2024-07-29T18:42:39Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - "You Gotta be a Doctor, Lin": An Investigation of Name-Based Bias of Large Language Models in Employment Recommendations [29.183942575629214]
我々はGPT-3.5-TurboとLlama 3-70B-Instructを利用して、人種や性別を強く示す320のファーストネームを持つ候補者の雇用決定と給与勧告をシミュレートする。
以上の結果から,40の職種にまたがる他の人口集団よりも,白人女性の名前を持つ候補者を雇用する傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-18T03:11:43Z) - JobFair: A Framework for Benchmarking Gender Hiring Bias in Large Language Models [12.12628747941818]
本稿では,Large Language Models (LLMs) における階層的ジェンダー採用バイアスのベンチマークを行うための新しいフレームワークを提案する。
我々は、労働経済学、法原則、現在のバイアスベンチマークの批判に根ざした新しい構成を導入する。
我々は、現在最先端の10のLCMにおける性別採用バイアスを分析する。
論文 参考訳(メタデータ) (2024-06-17T09:15:57Z) - The Silicon Ceiling: Auditing GPT's Race and Gender Biases in Hiring [0.9499648210774584]
我々は、一般的に使われている1つの大きな言語モデルにおいて、人種と性別の偏見のAI監査を行う。
モデルがステレオタイプに基づくバイアスを反映していることが分かる。
女性の履歴書には経験の少ない職業があり、アジアやヒスパニックの履歴書には移民のマーカーがあった。
論文 参考訳(メタデータ) (2024-05-07T15:39:45Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
社会的偏見は言語機関に現れることがある。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
我々は,最近の3つのLarge Language Model(LLM)生成コンテンツにおいて,言語エージェンシーの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。