論文の概要: The Silicon Ceiling: Auditing GPT's Race and Gender Biases in Hiring
- arxiv url: http://arxiv.org/abs/2405.04412v2
- Date: Thu, 9 May 2024 18:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 11:22:39.495783
- Title: The Silicon Ceiling: Auditing GPT's Race and Gender Biases in Hiring
- Title(参考訳): シリコンバレーのシーリング:GPTの人種と雇用におけるジェンダーのバイアスを調査
- Authors: Lena Armstrong, Abbey Liu, Stephen MacNeil, Danaë Metaxa,
- Abstract要約: 一般に使われている1つの大きな言語モデルにおいて、人種と性別の偏りのアルゴリズム監査を行う。
モデルがステレオタイプに基づくバイアスを反映していることが分かる。
女性の履歴書には経験の少ない職業があり、アジアやヒスパニックの履歴書には移民のマーカーがあった。
- 参考スコア(独自算出の注目度): 0.9499648210774584
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly being introduced in workplace settings, with the goals of improving efficiency and fairness. However, concerns have arisen regarding these models' potential to reflect or exacerbate social biases and stereotypes. This study explores the potential impact of LLMs on hiring practices. To do so, we conduct an algorithm audit of race and gender biases in one commonly-used LLM, OpenAI's GPT-3.5, taking inspiration from the history of traditional offline resume audits. We conduct two studies using names with varied race and gender connotations: resume assessment (Study 1) and resume generation (Study 2). In Study 1, we ask GPT to score resumes with 32 different names (4 names for each combination of the 2 gender and 4 racial groups) and two anonymous options across 10 occupations and 3 evaluation tasks (overall rating, willingness to interview, and hireability). We find that the model reflects some biases based on stereotypes. In Study 2, we prompt GPT to create resumes (10 for each name) for fictitious job candidates. When generating resumes, GPT reveals underlying biases; women's resumes had occupations with less experience, while Asian and Hispanic resumes had immigrant markers, such as non-native English and non-U.S. education and work experiences. Our findings contribute to a growing body of literature on LLM biases, in particular when used in workplace contexts.
- Abstract(参考訳): 大規模言語モデル(LLM)は、効率性と公平性の向上を目標として、職場環境でますます導入されている。
しかし、これらのモデルが社会的バイアスやステレオタイプを反映または悪化させる可能性を懸念する声が上がっている。
本研究では,LLMが雇用実践に与える影響について検討する。
そこで我々は,従来のオフライン履歴監査の歴史から着想を得て,レースとジェンダーの偏見のアルゴリズム監査を行う。
人種と性別の異なる名前を用いて2つの研究を行う: 再開アセスメント(研究1)と再開アセスメント(研究2)。
研究1では、GPTに32の異なる名前(2つの性別と4つの人種グループの組み合わせごとに4つの名前)と10の職業と3つの評価タスク(すべての評価、面接への意欲、雇用可能性)の匿名オプションをスコアアップするよう依頼する。
モデルがステレオタイプに基づくバイアスを反映していることが分かる。
研究2では,GPTに対して,架空の求職候補者の履歴書(名前毎に10)を作成するよう促す。
女性の履歴書は経験の少ない職業を持ち、アジア系とヒスパニック系の履歴書は非ネイティブの英語や非アメリカの教育や仕事の経験のような移民のマーカーを持っていた。
本研究は,特に職場環境におけるLCMバイアスに関する文献の増大に寄与する。
関連論文リスト
- "You Gotta be a Doctor, Lin": An Investigation of Name-Based Bias of Large Language Models in Employment Recommendations [29.183942575629214]
我々はGPT-3.5-TurboとLlama 3-70B-Instructを利用して、人種や性別を強く示す320のファーストネームを持つ候補者の雇用決定と給与勧告をシミュレートする。
以上の結果から,40の職種にまたがる他の人口集団よりも,白人女性の名前を持つ候補者を雇用する傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-18T03:11:43Z) - JobFair: A Framework for Benchmarking Gender Hiring Bias in Large Language Models [12.12628747941818]
本稿では,Large Language Models (LLMs) における階層的ジェンダー採用バイアスのベンチマークを行うための新しいフレームワークを提案する。
本稿では,医療・金融・建設産業のリアルかつ匿名化された履歴データセットを用いたフレームワークについて紹介する。
第2に,反現実的アプローチに基づく新しい統計的・計算的採用バイアス指標を提案する。
第三に、私たちは10の最先端のLCMにおける採用バイアスを分析します。
論文 参考訳(メタデータ) (2024-06-17T09:15:57Z) - White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs [58.27353205269664]
言語エージェンシーは、テキストにおける社会的偏見を評価する上で重要な側面である。
従来の研究はしばしば、エージェント語と共用語を識別する文字列マッチング技術に依存していた。
本稿では,言語庁バイアス評価ベンチマークを紹介する。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Are Emily and Greg Still More Employable than Lakisha and Jamal?
Investigating Algorithmic Hiring Bias in the Era of ChatGPT [24.496590819263865]
GPT-3.5、Bard、Claudeといった大規模言語モデル(LLM)は、様々なタスクに適用可能である。
本研究では,(1)履歴書と職種とのマッチング,(2)履歴書と雇用関連情報との要約の2つの課題についてLCMを評価した。
総じて、LSMは人種や性別で頑丈であり、妊娠状態や政治的親戚関係におけるパフォーマンスが異なる。
論文 参考訳(メタデータ) (2023-10-08T12:08:48Z) - Professional Presentation and Projected Power: A Case Study of Implicit
Gender Information in English CVs [8.947168670095326]
本稿では,男女のCVにおけるスキルと背景のフレーミングについて検討する。
我々は、米国から1.8Kの正当性、英語、CVのデータセットを導入し、16の職業をカバーした。
論文 参考訳(メタデータ) (2022-11-17T23:26:52Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。