論文の概要: The Impact of Disability Disclosure on Fairness and Bias in LLM-Driven Candidate Selection
- arxiv url: http://arxiv.org/abs/2506.00256v1
- Date: Fri, 30 May 2025 21:44:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.621526
- Title: The Impact of Disability Disclosure on Fairness and Bias in LLM-Driven Candidate Selection
- Title(参考訳): LLMによる候補選択における障害開示が公平性とバイアスに及ぼす影響
- Authors: Mahammed Kamruzzaman, Gene Louis Kim,
- Abstract要約: 本研究では,大規模言語モデル(LLM)による候補選択に対する自発的に開示された情報の影響について検討する。
LLMは障害がないことを公表した候補者を好んだ。
候補者が障害の状態を公表しない場合であっても、LSMは障害を持っていないと明言した者に比べて、それらを選択する可能性が低い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: As large language models (LLMs) become increasingly integrated into hiring processes, concerns about fairness have gained prominence. When applying for jobs, companies often request/require demographic information, including gender, race, and disability or veteran status. This data is collected to support diversity and inclusion initiatives, but when provided to LLMs, especially disability-related information, it raises concerns about potential biases in candidate selection outcomes. Many studies have highlighted how disability can impact CV screening, yet little research has explored the specific effect of voluntarily disclosed information on LLM-driven candidate selection. This study seeks to bridge that gap. When candidates shared identical gender, race, qualifications, experience, and backgrounds, and sought jobs with minimal employment rate gaps between individuals with and without disabilities (e.g., Cashier, Software Developer), LLMs consistently favored candidates who disclosed that they had no disability. Even in cases where candidates chose not to disclose their disability status, the LLMs were less likely to select them compared to those who explicitly stated they did not have a disability.
- Abstract(参考訳): 大規模言語モデル(LLM)が採用プロセスに統合されるにつれ、公正性に対する懸念が高まりつつある。
雇用を申請する場合、企業はしばしば、性別、人種、障害、または退役軍人のステータスなど、人口統計情報を要求/要求する。
このデータは多様性と包摂的イニシアチブをサポートするために収集されるが、LSM、特に障害関連情報に提供されると、候補選択結果の潜在的なバイアスに関する懸念が生じる。
多くの研究は、障害がCVスクリーニングにどのように影響するかを強調しているが、LCMによる候補選択に対する自発的に開示された情報の具体的な影響を調査する研究はほとんどない。
この研究はそのギャップを埋めようとしている。
候補者が同一性、人種、資格、経験、バックグラウンドを共有し、障害のある個人(例えば、カシエ、ソフトウェア開発者)の間で雇用率の差が最小限の職を求めるとき、LSMは障害がないことを開示する候補者を一貫して好んだ。
候補者が障害の状態を公表しない場合であっても、LSMは障害を持っていないと明言した者に比べて、それらを選択する可能性が低い。
関連論文リスト
- Mitigating Subgroup Disparities in Multi-Label Speech Emotion Recognition: A Pseudo-Labeling and Unsupervised Learning Approach [53.824673312331626]
Implicit Demography Inference (IDI)モジュールは、k平均クラスタリングを用いて、音声感情認識(SER)におけるバイアスを軽減する
実験により、擬似ラベルIDIはサブグループの格差を減らし、フェアネスの指標を28%以上改善することが示された。
教師なしのIDIは、SERのパフォーマンスが3.6%未満のフェアネス指標を4.6%以上改善する。
論文 参考訳(メタデータ) (2025-05-20T14:50:44Z) - Gender and Positional Biases in LLM-Based Hiring Decisions: Evidence from Comparative CV/Résumé Evaluations [0.0]
本研究は,言語モデル (LLM) の履歴やCVに基づく職業的候補の評価における行動について検討する。
すべてのLLMは、70の異なる職業にまたがる女性の名前の候補者を一貫して好んだ。
CVに性フィールド(男性/女性)を追加することで、女性応募者の嗜好がさらに高まった。
論文 参考訳(メタデータ) (2025-05-16T06:19:35Z) - Evaluating Bias in LLMs for Job-Resume Matching: Gender, Race, and Education [8.235367170516769]
大規模言語モデル(LLM)は、求職履歴書と候補履歴書を一致させることで、採用を自動化する能力を提供する。
しかし、これらのモデルに固有のバイアスは、不公平な雇用慣行をもたらし、社会的偏見を強化し、職場の多様性を損なう可能性がある。
本研究は、英語と米国の文脈における求人マッチングタスクにおけるLLMの性能と公平性について検討する。
論文 参考訳(メタデータ) (2025-03-24T22:11:22Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - FRAMM: Fair Ranking with Missing Modalities for Clinical Trial Site
Selection [55.2629939137135]
本稿では, 試行サイト選択作業に焦点をあて, 公正な試行サイト選択のための深層強化学習フレームワークであるFRAMMを提案する。
我々は、公正なトライアルサイトの選択に影響を与える2つの現実的な課題に対処することに重点を置いている。データモダリティは、多くの潜在的なトライアルサイトでは不十分であり、サイトのセレクションは、入試と多様性の両方を同時に最適化する必要がある。
FRAMMは2016年から2021年までの4,392の臨床試験で評価し,FRAMMが入学のみの設定において最上位のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-30T20:44:14Z) - Unpacking the Interdependent Systems of Discrimination: Ableist Bias in
NLP Systems through an Intersectional Lens [20.35460711907179]
大規模BERT言語モデルの単語予測に基づく各種解析について報告する。
統計的に有意な結果は、障害者が不利になる可能性があることを示している。
発見者はまた、相互に結びついた性別や人種のアイデンティティに関連する、重複する形の差別についても検討している。
論文 参考訳(メタデータ) (2021-10-01T16:40:58Z) - Leveraging Administrative Data for Bias Audits: Assessing Disparate
Coverage with Mobility Data for COVID-19 Policy [61.60099467888073]
管理データのリンクによって,バイアスに対するモビリティデータの監査が可能かを示す。
我々は、高齢者や非白人の有権者が移動データによって捕えられる可能性が低いことを示した。
このような移動データに基づく公衆衛生資源の配分は、高リスク高齢者や少数民族に不当に害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2020-11-14T02:04:14Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。