論文の概要: ABLEIST: Intersectional Disability Bias in LLM-Generated Hiring Scenarios
- arxiv url: http://arxiv.org/abs/2510.10998v1
- Date: Mon, 13 Oct 2025 04:18:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.19825
- Title: ABLEIST: Intersectional Disability Bias in LLM-Generated Hiring Scenarios
- Title(参考訳): ABLEIST: LLM生成された雇用シナリオにおける障害間バイアス
- Authors: Mahika Phutane, Hayoung Jung, Matthew Kim, Tanushree Mitra, Aditya Vashistha,
- Abstract要約: 大規模言語モデル(LLMs)は、特に障害者(PwD)に対する雇用のような高い領域におけるアイデンティティに基づく差別の永続性について精査されている。
我々は、多様な障害、性別、国籍、およびキャストプロファイルにまたがる2,820人の雇用シナリオにまたがる6つのLCMの総合的な監査を行う。
微妙な交叉障害と偏見を捉えるために,障害研究の文献に根ざした5つの交叉障害と3つの交叉障害のセットであるABLEISTを導入する。
- 参考スコア(独自算出の注目度): 17.536416969288798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly under scrutiny for perpetuating identity-based discrimination in high-stakes domains such as hiring, particularly against people with disabilities (PwD). However, existing research remains largely Western-centric, overlooking how intersecting forms of marginalization--such as gender and caste--shape experiences of PwD in the Global South. We conduct a comprehensive audit of six LLMs across 2,820 hiring scenarios spanning diverse disability, gender, nationality, and caste profiles. To capture subtle intersectional harms and biases, we introduce ABLEIST (Ableism, Inspiration, Superhumanization, and Tokenism), a set of five ableism-specific and three intersectional harm metrics grounded in disability studies literature. Our results reveal significant increases in ABLEIST harms towards disabled candidates--harms that many state-of-the-art models failed to detect. These harms were further amplified by sharp increases in intersectional harms (e.g., Tokenism) for gender and caste-marginalized disabled candidates, highlighting critical blind spots in current safety tools and the need for intersectional safety evaluations of frontier models in high-stakes domains like hiring.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特に障害者(PwD)に対して、雇用などの高い領域においてアイデンティティに基づく差別を永続的に行うために、ますます精査されている。
しかしながら、既存の研究はほとんどが西洋中心であり、男女やカストのような、世界南部におけるPwDの成文化体験と、どのように交わるかを見越している。
我々は、多様な障害、性別、国籍、およびキャストプロファイルにまたがる2,820人の雇用シナリオにまたがる6つのLCMの総合的な監査を行う。
微妙な交叉障害と偏見を捉えるために,障害研究の文献に根ざした5つの交叉障害のセットであるABLEIST(Ableism, Inspiration, Super Humanization, Tokenism)を導入する。
以上の結果から,障害のある候補に対するABLEISTの有害度は有意に増加し,多くの最先端モデルが検出できなかったことが示唆された。
これらの被害は、性別や妊娠に苦しむ障害候補者に対する交叉障害(例えば、Tokenism)の急激な増加、現在の安全ツールにおける重要な盲点の強調、雇用のような高い領域におけるフロンティアモデルの交叉安全評価の必要性によってさらに増幅された。
関連論文リスト
- Who's Asking? Investigating Bias Through the Lens of Disability Framed Queries in LLMs [2.722784054643991]
大規模言語モデル(LLM)は、ユーザの人口統計特性を、単独で推測する。
これらの推論を形作る際の障害の手がかりは、ほとんど未発見のままである。
そこで本研究では,障害条件による人口統計バイアスを,最先端の8つのLLMに対して,初めて体系的に評価した。
論文 参考訳(メタデータ) (2025-08-18T21:03:09Z) - Investigating Intersectional Bias in Large Language Models using Confidence Disparities in Coreference Resolution [5.061421107401101]
大規模言語モデル(LLM)は目覚ましいパフォーマンスを達成し、採用や受け入れといったリソース制約のあるコンテキストで意思決定支援ツールとして広く採用されている。
しかし、AIシステムは社会的バイアスを反映し、さらに悪化させることができるという科学的コンセンサスがあり、批判的な社会的文脈で使用される場合、アイデンティティに基づく害についての懸念が高まる。
本研究では,複数の識別軸が交差する際,異なる不利パターンを生じることを認識して,一軸の公平性評価を拡張し,交差バイアスを検証した。
論文 参考訳(メタデータ) (2025-08-09T22:24:40Z) - DECASTE: Unveiling Caste Stereotypes in Large Language Models through Multi-Dimensional Bias Analysis [20.36241144630387]
大規模言語モデル (LLM) は自然言語処理 (NLP) に革命をもたらした。
LLMは、民族、性別、宗教に基づくものなど、有害な社会的偏見を反映し、永続することが示されている。
我々は,LLMにおける暗黙的および明示的なキャストバイアスを検知し,評価するための新しいフレームワークであるDECASTEを提案する。
論文 参考訳(メタデータ) (2025-05-20T23:19:13Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。