論文の概要: Identifying and Improving Disability Bias in GAI-Based Resume Screening
- arxiv url: http://arxiv.org/abs/2402.01732v1
- Date: Sun, 28 Jan 2024 17:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:30:13.398329
- Title: Identifying and Improving Disability Bias in GAI-Based Resume Screening
- Title(参考訳): gai-based resume screeningにおける障害バイアスの同定と改善
- Authors: Kate Glazko, Yusuf Mohammed, Ben Kosa, Venkatesh Potluri, Jennifer
Mankoff
- Abstract要約: 我々はChatGPTに、障害に関連するリーダーシップ賞、奨学金、パネルプレゼンテーション、会員シップで強化された同じ履歴書に対する履歴書のランク付けを依頼する。
GPT-4はこれらの拡張CVに対して偏見を示す。
この偏見は、DEIの原則と障害正義に基づいてカスタムGPTをトレーニングすることで、定量的に低減できることを示す。
- 参考スコア(独自算出の注目度): 10.601677205834324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Generative AI rises in adoption, its use has expanded to include domains
such as hiring and recruiting. However, without examining the potential of
bias, this may negatively impact marginalized populations, including people
with disabilities. To address this important concern, we present a resume audit
study, in which we ask ChatGPT (specifically, GPT-4) to rank a resume against
the same resume enhanced with an additional leadership award, scholarship,
panel presentation, and membership that are disability related. We find that
GPT-4 exhibits prejudice towards these enhanced CVs. Further, we show that this
prejudice can be quantifiably reduced by training a custom GPTs on principles
of DEI and disability justice. Our study also includes a unique qualitative
analysis of the types of direct and indirect ableism GPT-4 uses to justify its
biased decisions and suggest directions for additional bias mitigation work.
Additionally, since these justifications are presumably drawn from training
data containing real-world biased statements made by humans, our analysis
suggests additional avenues for understanding and addressing human bias.
- Abstract(参考訳): ジェネレーティブAIの採用が進むにつれて、採用や採用といった領域も拡張されている。
しかし、バイアスの可能性を調べることなしに、これは障害のある人々を含む極端に人口に悪影響を及ぼす可能性がある。
この重要な懸念に対処するために,我々はchatgpt(特にgpt-4)に対して,新たなリーダーシップ賞,奨学金,パネルプレゼンテーション,および障害関連メンバーシップによって強化された同じ履歴書に対する履歴書のランク付けを依頼する,履歴書監査研究を行う。
GPT-4はこれらの拡張CVに対して偏見を示す。
さらに, この偏見は, DEI の原則と障害正義に基づいて, カスタム GPT を訓練することにより, 定量的に低減できることを示す。
また, GPT-4 は, バイアス決定を正当化し, さらなるバイアス軽減作業の方向性を提案するために, 直接的および間接的能力主義のタイプを定性的に分析する。
さらに,これらの正当性は,人間による実世界バイアス文を含む学習データから得られたものと考えられるので,人間のバイアスに対する理解と対処のための新たな道筋を示唆する。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Irrelevant Alternatives Bias Large Language Model Hiring Decisions [0.0]
このアトラクション効果は、劣る候補の存在が優れた候補をより魅力的にするときに生じる。
本研究は,GPT-3.5とGPT-4のアトラクション効果が,リクルーターの役割を担っていることを示すものである。
論文 参考訳(メタデータ) (2024-09-04T10:37:36Z) - An Empirical Analysis on Large Language Models in Debate Evaluation [10.677407097411768]
GPT-3.5 や GPT-4 のような先進大言語モデル (LLM) の機能と固有バイアスを議論評価の文脈で検討する。
GPT-3.5 と GPT-4 の両者に一貫した偏りがみられた。
また, GPT-3.5 および GPT-4 の語彙バイアスも明らかにした。
論文 参考訳(メタデータ) (2024-05-28T18:34:53Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Comparative Analysis of GPT-4 and Human Graders in Evaluating Praise
Given to Students in Synthetic Dialogues [2.3361634876233817]
AIチャットボットChatGPTのような大規模な言語モデルは、実践的な設定で家庭教師に建設的なフィードバックを提供する可能性を秘めている。
AIが生成したフィードバックの正確性はまだ不明であり、ChatGPTのようなモデルが効果的なフィードバックを提供する能力について研究している。
論文 参考訳(メタデータ) (2023-07-05T04:14:01Z) - Can GPT-4 Support Analysis of Textual Data in Tasks Requiring Highly
Specialized Domain Expertise? [0.8924669503280334]
GPT-4は、アノテーションガイドラインによって誘導され、十分に訓練された法学生のアノテーションと同等に実行される。
ガイドラインでは,GPT-4の予測を解析し,欠陥を識別・緩和する方法を実証した。
論文 参考訳(メタデータ) (2023-06-24T08:48:24Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Is GPT-4 a Good Data Analyst? [67.35956981748699]
我々は、GPT-4を、広範囲のドメインのデータベースでエンドツーエンドのデータ分析を行うためのデータ分析であると考えている。
我々は,複数の専門家データアナリストとGPT-4のパフォーマンスを体系的に比較するために,タスク固有の評価指標を設計する。
実験の結果, GPT-4はヒトに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-05-24T11:26:59Z) - Humans in Humans Out: On GPT Converging Toward Common Sense in both
Success and Failure [0.0]
GPT-3, GPT-3.5, GPT-4は多量の人為的テキストで訓練された。
これらの例の59%に対して, GPT-3 は ETR 予測出力の証拠を示した。
GPT-3では18%, GPT-3.5では33%, GPT-4では34%であった。
論文 参考訳(メタデータ) (2023-03-30T10:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。