論文の概要: Behind the Screens: Uncovering Bias in AI-Driven Video Interview Assessments Using Counterfactuals
- arxiv url: http://arxiv.org/abs/2505.12114v1
- Date: Sat, 17 May 2025 18:46:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.045721
- Title: Behind the Screens: Uncovering Bias in AI-Driven Video Interview Assessments Using Counterfactuals
- Title(参考訳): 画面の後ろに:AI駆動のビデオインタビューアセスメントにおけるバイアスの発見
- Authors: Dena F. Mujtaba, Nihar R. Mahapatra,
- Abstract要約: 本稿では,AIによる人格評価において,偏見を評価・定量化するための反ファクトベースのフレームワークを提案する。
本手法では,求職者の対実表現を生成するためにGAN(Generative Adversarial Network)を用いる。
この作業は、商用AI採用プラットフォームの公正監査のためのスケーラブルなツールを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI-enhanced personality assessments are increasingly shaping hiring decisions, using affective computing to predict traits from the Big Five (OCEAN) model. However, integrating AI into these assessments raises ethical concerns, especially around bias amplification rooted in training data. These biases can lead to discriminatory outcomes based on protected attributes like gender, ethnicity, and age. To address this, we introduce a counterfactual-based framework to systematically evaluate and quantify bias in AI-driven personality assessments. Our approach employs generative adversarial networks (GANs) to generate counterfactual representations of job applicants by altering protected attributes, enabling fairness analysis without access to the underlying model. Unlike traditional bias assessments that focus on unimodal or static data, our method supports multimodal evaluation-spanning visual, audio, and textual features. This comprehensive approach is particularly important in high-stakes applications like hiring, where third-party vendors often provide AI systems as black boxes. Applied to a state-of-the-art personality prediction model, our method reveals significant disparities across demographic groups. We also validate our framework using a protected attribute classifier to confirm the effectiveness of our counterfactual generation. This work provides a scalable tool for fairness auditing of commercial AI hiring platforms, especially in black-box settings where training data and model internals are inaccessible. Our results highlight the importance of counterfactual approaches in improving ethical transparency in affective computing.
- Abstract(参考訳): AIによって強化されたパーソナリティアセスメントは、ビッグファイブ(OCEAN)モデルから特性を予測するために感情コンピューティングを使用して、採用決定を形作っている。
しかし、これらの評価にAIを統合することで、特にトレーニングデータに根ざしたバイアス増幅に関する倫理的な懸念が高まる。
これらのバイアスは、性別、民族、年齢といった保護された属性に基づいて差別的な結果をもたらす可能性がある。
そこで我々は,AIによる人格評価において,バイアスを体系的に評価し,定量化するための反事実に基づくフレームワークを提案する。
提案手法では,保護属性を変更して求職者の対実表現を生成するために,GAN(Generative Adversarial Network)を用いている。
非モーダルデータや静的データに焦点を当てた従来のバイアスアセスメントとは違って,本手法は視覚,音声,テキストなどのマルチモーダル評価をサポートする。
この包括的なアプローチは、サードパーティベンダがブラックボックスとしてAIシステムを提供するような、採用のような高度なアプリケーションにおいて特に重要である。
本手法は,最先端の人格予測モデルに適用し,人口集団間での大きな差異を明らかにする。
また,保護属性分類器を用いて本フレームワークの有効性を検証し,その妥当性を確認した。
この作業は、特にトレーニングデータやモデル内部へのアクセスが不可能なブラックボックス設定において、商用AI採用プラットフォームの公正性監査のためのスケーラブルなツールを提供する。
本研究は,感情コンピューティングにおける倫理的透明性向上における反事実的アプローチの重要性を強調した。
関連論文リスト
- Uncovering Bias in Foundation Models: Impact, Testing, Harm, and Mitigation [26.713973033726464]
Bias in Foundation Models (FMs) は、医療、教育、金融といった分野における公平性と株式に対する重大な課題を提起する。
これらのバイアスは、トレーニングデータにおけるステレオタイプと社会的不平等の過剰表現に根ざし、現実世界の差別を悪化させ、有害なステレオタイプを強化し、AIシステムにおけるゼロ信頼を補強する。
本稿では,意味論的に設計されたプローブを用いて,明示的かつ暗黙的なバイアスを検出するシステムテスト手法であるTriProTestingを紹介する。
論文 参考訳(メタデータ) (2025-01-14T19:06:37Z) - Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。