論文の概要: Irrelevant Alternatives Bias Large Language Model Hiring Decisions
- arxiv url: http://arxiv.org/abs/2409.15299v1
- Date: Wed, 4 Sep 2024 10:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 20:05:48.840547
- Title: Irrelevant Alternatives Bias Large Language Model Hiring Decisions
- Title(参考訳): 非関連代替案 大規模言語モデル採用決定
- Authors: Kremena Valkanova, Pencho Yordanov,
- Abstract要約: このアトラクション効果は、劣る候補の存在が優れた候補をより魅力的にするときに生じる。
本研究は,GPT-3.5とGPT-4のアトラクション効果が,リクルーターの役割を担っていることを示すものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate whether LLMs display a well-known human cognitive bias, the attraction effect, in hiring decisions. The attraction effect occurs when the presence of an inferior candidate makes a superior candidate more appealing, increasing the likelihood of the superior candidate being chosen over a non-dominated competitor. Our study finds consistent and significant evidence of the attraction effect in GPT-3.5 and GPT-4 when they assume the role of a recruiter. Irrelevant attributes of the decoy, such as its gender, further amplify the observed bias. GPT-4 exhibits greater bias variation than GPT-3.5. Our findings remain robust even when warnings against the decoy effect are included and the recruiter role definition is varied.
- Abstract(参考訳): 雇用決定において,LLMが認知バイアス,アトラクション効果をよく表すかどうかを検討する。
このアトラクション効果は、下位候補の存在が上位候補をより魅力的にすることで、上位候補が非上位候補よりも選択される可能性を高める。
本研究は,GPT-3.5とGPT-4のアトラクション効果が,リクルーターの役割を担っていることを示すものである。
デコイの非関連属性、例えば性別は、観察されたバイアスをさらに増幅する。
GPT-4はGPT-3.5よりも大きなバイアス変化を示す。
デコイ効果に対する警告を含まなかったり、採用者の役割定義が異なっていたりしても、この知見は引き続き堅牢である。
関連論文リスト
- Revealing Hidden Bias in AI: Lessons from Large Language Models [0.0]
本研究では,Claude 3.5 Sonnet, GPT-4o, Gemini 1.5, Llama 3.1 405B による面接レポートのバイアスについて検討した。
LLMによる匿名化によるバイアス低減効果について検討した。
論文 参考訳(メタデータ) (2024-10-22T11:58:54Z) - Identifying the sources of ideological bias in GPT models through linguistic variation in output [0.0]
我々は、政治的態度の対照的な国における言語変化を利用して、センシティブな政治トピックに対するGPT応答のバイアスを評価する。
GPTのアウトプットは、保守的な社会によく対応している言語ではより保守的である。
GPT-3.5で見られる言語間の差異は、OpenAIのフィルタリングポリシーのため、GPT-4の方がはるかにリベラルであるにもかかわらず、GPT-4で持続する。
論文 参考訳(メタデータ) (2024-09-09T20:11:08Z) - Are Large Language Models Strategic Decision Makers? A Study of Performance and Bias in Two-Player Non-Zero-Sum Games [56.70628673595041]
大規模言語モデル (LLM) は現実世界での利用が増えているが、その戦略的意思決定能力はほとんど探索されていない。
本研究は,Stag Hunt と Prisoner Dilemma のカノニカルゲーム理論2人プレイヤ非ゼロサムゲームにおける LLM の性能とメリットについて検討する。
GPT-3.5, GPT-4-Turbo, GPT-4o, Llama-3-8Bの構造化評価は, これらのゲームにおいて決定を行う場合, 以下の系統的バイアスの少なくとも1つの影響を受けていることを示す。
論文 参考訳(メタデータ) (2024-07-05T12:30:02Z) - An Empirical Analysis on Large Language Models in Debate Evaluation [10.677407097411768]
GPT-3.5 や GPT-4 のような先進大言語モデル (LLM) の機能と固有バイアスを議論評価の文脈で検討する。
GPT-3.5 と GPT-4 の両者に一貫した偏りがみられた。
また, GPT-3.5 および GPT-4 の語彙バイアスも明らかにした。
論文 参考訳(メタデータ) (2024-05-28T18:34:53Z) - A First Look at Selection Bias in Preference Elicitation for Recommendation [64.44255178199846]
選好選好における選好バイアスの影響について検討した。
大きなハードルは、好みの推論インタラクションを持つ公開データセットがないことです。
本稿では,トピックに基づく選好提案プロセスのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-05-01T14:56:56Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs [0.0]
本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を分析した。
ダークパーソナリティの特徴と陰謀の信念はどちらのモデルでも特に強調されなかった。
論文 参考訳(メタデータ) (2024-02-06T16:03:57Z) - Identifying and Improving Disability Bias in GPT-Based Resume Screening [9.881826151448198]
我々はChatGPTに、障害に関連するリーダーシップ賞、奨学金、パネルプレゼンテーション、会員シップで強化された同じ履歴書に対する履歴書のランク付けを依頼する。
GPT-4はこれらの拡張CVに対して偏見を示す。
この偏見は、DEIの原則と障害正義に基づいてカスタムGPTをトレーニングすることで、定量的に低減できることを示す。
論文 参考訳(メタデータ) (2024-01-28T17:04:59Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。