論文の概要: AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights
- arxiv url: http://arxiv.org/abs/2509.00462v2
- Date: Thu, 11 Sep 2025 16:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 13:52:32.833303
- Title: AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights
- Title(参考訳): アルゴリズム採用におけるAIセルフプレゼン - 実証的エビデンスと洞察
- Authors: Jiannan Xu, Gujie Li, Jane Yi Jiang,
- Abstract要約: 大規模言語モデル (LLM) は人書き履歴書よりも, 自己生成したコンテンツを体系的に好んでいることを示す。
このバイアスは、LSMの自己認識能力をターゲットにした単純な介入によって50%以上削減することができる。
これらの調査結果は、AIによる意思決定における、新しくて見過ごされたリスクを浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.0611737116137921
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative artificial intelligence (AI) tools become widely adopted, large language models (LLMs) are increasingly involved on both sides of decision-making processes, ranging from hiring to content moderation. This dual adoption raises a critical question: do LLMs systematically favor content that resembles their own outputs? Prior research in computer science has identified self-preference bias -- the tendency of LLMs to favor their own generated content -- but its real-world implications have not been empirically evaluated. We focus on the hiring context, where job applicants often rely on LLMs to refine resumes, while employers deploy them to screen those same resumes. Using a large-scale controlled resume correspondence experiment, we find that LLMs consistently prefer resumes generated by themselves over those written by humans or produced by alternative models, even when content quality is controlled. The bias against human-written resumes is particularly substantial, with self-preference bias ranging from 68% to 88% across major commercial and open-source models. To assess labor market impact, we simulate realistic hiring pipelines across 24 occupations. These simulations show that candidates using the same LLM as the evaluator are 23% to 60% more likely to be shortlisted than equally qualified applicants submitting human-written resumes, with the largest disadvantages observed in business-related fields such as sales and accounting. We further demonstrate that this bias can be reduced by more than 50% through simple interventions targeting LLMs' self-recognition capabilities. These findings highlight an emerging but previously overlooked risk in AI-assisted decision making and call for expanded frameworks of AI fairness that address not only demographic-based disparities, but also biases in AI-AI interactions.
- Abstract(参考訳): 生成人工知能(AI)ツールが広く採用されるにつれて、大規模言語モデル(LLM)は、雇用からコンテンツモデレーションまで、意思決定プロセスの双方にますます関与している。
LLMは、自分たちのアウトプットに似たコンテンツを体系的に好んでいますか?
コンピュータ科学における以前の研究で、LLMは自作のコンテンツを好む傾向にある自己選好バイアスを特定できたが、実世界の影響は実証的に評価されていない。
雇用者は、求職者が履歴書を精査するためにLLMを頼りにし、雇用者はそれらの履歴書を検査するためにそれらを配置する。
大規模に制御された履歴書対応実験により,LLMはコンテンツ品質が制御された場合でも,人間が書いたものや代替モデルで作成したものよりも,自分自身が生成した履歴書を常に好んでいることがわかった。
人間による履歴書に対する偏見は、主要な商用およびオープンソースモデルで68%から88%の範囲で、特に顕著である。
労働市場への影響を評価するため、24の職業にまたがる現実的な雇用パイプラインをシミュレートした。
これらのシミュレーションにより、同一のLCMを評価対象として使用する候補者は、人事履歴書を提出する適格応募者よりも23%から60%の確率で、営業や会計などのビジネス関連分野において最も不利な結果が見られた。
さらに,LLMの自己認識機能をターゲットにした簡単な介入によって,このバイアスを50%以上削減できることを実証した。
これらの調査結果は、AI支援による意思決定の新たなリスクと、人口統計に基づく格差だけでなく、AIとAIの相互作用のバイアスにも対処するAIフェアネスのフレームワーク拡張の必要性を浮き彫りにしている。
関連論文リスト
- Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - Cognitive Debiasing Large Language Models for Decision-Making [71.2409973056137]
大規模言語モデル(LLM)は意思決定アプリケーションをサポートする可能性を示している。
我々は,自己適応型認知脱バイアス(SACD)という認知脱バイアス手法を提案する。
我々の手法は、3つの逐次的なステップ – バイアス決定、バイアス分析、認知バイアス ― に従うことで、プロンプトにおける潜在的な認知バイアスを反復的に緩和する。
論文 参考訳(メタデータ) (2025-04-05T11:23:05Z) - Evaluating Bias in LLMs for Job-Resume Matching: Gender, Race, and Education [8.235367170516769]
大規模言語モデル(LLM)は、求職履歴書と候補履歴書を一致させることで、採用を自動化する能力を提供する。
しかし、これらのモデルに固有のバイアスは、不公平な雇用慣行をもたらし、社会的偏見を強化し、職場の多様性を損なう可能性がある。
本研究は、英語と米国の文脈における求人マッチングタスクにおけるLLMの性能と公平性について検討する。
論文 参考訳(メタデータ) (2025-03-24T22:11:22Z) - Unboxing Occupational Bias: Grounded Debiasing of LLMs with U.S. Labor Data [9.90951705988724]
大規模言語モデル(LLM)は、社会的バイアスを継承し増幅する傾向がある。
LLMバイアスは、不公平な慣行をもたらし、社会的不平等を悪化させる。
論文 参考訳(メタデータ) (2024-08-20T23:54:26Z) - Direct-Inverse Prompting: Analyzing LLMs' Discriminative Capacity in Self-Improving Generation [15.184067502284007]
もっとも先進的なLCMでさえ出力の不確実性を経験しており、異なるランニングや入力の微妙な変化に直面した時に、しばしば様々な結果を生み出す。
我々は,直接,逆,ハイブリッドの3つの識別的プロンプトを提案し,分析する。
私たちの洞察は、どの差別的プロンプトが最も有望か、いつ使うかを明らかにします。
論文 参考訳(メタデータ) (2024-06-27T02:26:47Z) - Pride and Prejudice: LLM Amplifies Self-Bias in Self-Refinement [75.7148545929689]
大規模言語モデル(LLM)は、特定のタスクの自己フィードバックを通じてパフォーマンスを向上し、他のタスクを劣化させる。
我々は、LSMの自己バイアス(自称世代を好む傾向)を正式に定義する。
我々は、翻訳、制約付きテキスト生成、数学的推論の6つのLCMを解析する。
論文 参考訳(メタデータ) (2024-02-18T03:10:39Z) - A Theory of Response Sampling in LLMs: Part Descriptive and Part Prescriptive [53.08398658452411]
大規模言語モデル(LLM)は、自律的な意思決定にますます活用されている。
このサンプリング行動が人間の意思決定と類似していることが示される。
統計的ノルムから規範的成分へのサンプルの偏りは、様々な現実世界の領域にまたがる概念に一貫して現れることを示す。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。