論文の概要: Fairness Is Not Enough: Auditing Competence and Intersectional Bias in AI-powered Resume Screening
- arxiv url: http://arxiv.org/abs/2507.11548v2
- Date: Thu, 17 Jul 2025 01:30:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 11:36:41.096773
- Title: Fairness Is Not Enough: Auditing Competence and Intersectional Bias in AI-powered Resume Screening
- Title(参考訳): 公正さは十分ではない:AIによるリソームスクリーニングにおける能力と間欠的バイアスの監査
- Authors: Kevin T Webster,
- Abstract要約: 本研究では,8つの主要なAIプラットフォームに関する2部監査を通じて,能力の問題を検討する。
実験1では、複雑な、文脈的な人種的、性別的偏見が確認され、いくつかのモデルは、人口統計学的信号の存在のために候補を罰するだけであった。
実験2は、コア能力を評価し、重要な洞察を与えた: バイアスのないように見えるいくつかのモデルは、実際に、実質的な評価を行うことができない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increasing use of generative AI for resume screening is predicated on the assumption that it offers an unbiased alternative to biased human decision-making. However, this belief fails to address a critical question: are these AI systems fundamentally competent at the evaluative tasks they are meant to perform? This study investigates the question of competence through a two-part audit of eight major AI platforms. Experiment 1 confirmed complex, contextual racial and gender biases, with some models penalizing candidates merely for the presence of demographic signals. Experiment 2, which evaluated core competence, provided a critical insight: some models that appeared unbiased were, in fact, incapable of performing a substantive evaluation, relying instead on superficial keyword matching. This paper introduces the "Illusion of Neutrality" to describe this phenomenon, where an apparent lack of bias is merely a symptom of a model's inability to make meaningful judgments. This study recommends that organizations and regulators adopt a dual-validation framework, auditing AI hiring tools for both demographic bias and demonstrable competence to ensure they are both equitable and effective.
- Abstract(参考訳): 再生AIの再開スクリーニングへの利用の増加は、偏見のない人間の意思決定に代わる選択肢を提供するという仮定に基づいて予測されている。
しかし、この信念は批判的な問題に対処することができない。これらのAIシステムは、彼らが実行しようとする評価タスクに基本的に能力があるのだろうか?
本研究では,8つの主要なAIプラットフォームに関する2部監査を通じて,能力の問題を検討する。
実験1では、複雑な、文脈的な人種的、性別的偏見が確認され、いくつかのモデルは、人口統計学的信号の存在のために候補を罰するだけであった。
偏見のないように見えるいくつかのモデルは、実際には、表面的なキーワードマッチングに頼る代わりに、実体的な評価を実行することができない。
本稿では、この現象を説明するために「中立のイリュージョン」を紹介し、偏見の明らかな欠如は、モデルが有意義な判断を下すことができないことの徴候である。
この調査では、組織と規制当局がデュアルバリデーションフレームワークを採用し、人口統計バイアスと実証可能な能力の両方でAI採用ツールを監査して、彼らが公平かつ効果的であることを保証することを推奨している。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Behind the Screens: Uncovering Bias in AI-Driven Video Interview Assessments Using Counterfactuals [0.0]
本稿では,AIによる人格評価において,偏見を評価・定量化するための反ファクトベースのフレームワークを提案する。
本手法では,求職者の対実表現を生成するためにGAN(Generative Adversarial Network)を用いる。
この作業は、商用AI採用プラットフォームの公正監査のためのスケーラブルなツールを提供する。
論文 参考訳(メタデータ) (2025-05-17T18:46:14Z) - FAIRE: Assessing Racial and Gender Bias in AI-Driven Resume Evaluations [3.9681649902019136]
本研究では,大言語モデル (LLM) における人種的, 性別的偏見を評価するためのベンチマーク「FAIRE」を導入する。
以上の結果から,どのモデルにもある程度のバイアスが生じるが,大きさや方向は様々であることがわかった。
AIによる採用のバイアスを減らすための戦略が緊急に必要である点を強調している。
論文 参考訳(メタデータ) (2025-04-02T07:11:30Z) - A Critical Review of Predominant Bias in Neural Networks [19.555188118439883]
この2つのバイアスには、永続的で、広範囲にまたがるが、未調査の混乱が存在することが分かりました。
これら2つの偏りの数学的定義を2つ提供し、これらの定義を活用して総合的な論文リストを統一することにより、明確さの回復を目指す。
論文 参考訳(メタデータ) (2025-02-16T07:55:19Z) - Uncovering Bias in Foundation Models: Impact, Testing, Harm, and Mitigation [26.713973033726464]
Bias in Foundation Models (FMs) は、医療、教育、金融といった分野における公平性と株式に対する重大な課題を提起する。
これらのバイアスは、トレーニングデータにおけるステレオタイプと社会的不平等の過剰表現に根ざし、現実世界の差別を悪化させ、有害なステレオタイプを強化し、AIシステムにおけるゼロ信頼を補強する。
本稿では,意味論的に設計されたプローブを用いて,明示的かつ暗黙的なバイアスを検出するシステムテスト手法であるTriProTestingを紹介する。
論文 参考訳(メタデータ) (2025-01-14T19:06:37Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Reducing annotator bias by belief elicitation [3.0040661953201475]
アノテーションやインスタンスの数を必要とせずに、アノテーションのバイアスを処理するための簡単な方法を提案する。
我々は、アノテータが他のアノテータのインスタンスに対する判断に対する信念について、これらの信念が判断よりもより代表的なラベルを提供するかもしれないという仮説の下で尋ねる。
その結果、アノテータの2つのグループ間の体系的な差異として定義されるバイアスは、判断の代わりに信念を求める際に一貫して減少することが示された。
論文 参考訳(メタデータ) (2024-10-21T07:44:01Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Data quality dimensions for fair AI [0.0]
我々は、データ品質の次元の観点から、AIシステムにおけるバイアスの問題を考察する。
我々は、精度戦略に基づくバイアス軽減ツールの限定モデル構築について強調する。
本稿では, 完全性, 一貫性, タイムライン, 信頼性の観点から, 分類タスクの公平性を再考する。
論文 参考訳(メタデータ) (2023-05-11T16:48:58Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。