論文の概要: No Thoughts Just AI: Biased LLM Hiring Recommendations Alter Human Decision Making and Limit Human Autonomy
- arxiv url: http://arxiv.org/abs/2509.04404v2
- Date: Mon, 08 Sep 2025 19:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 12:33:22.810573
- Title: No Thoughts Just AI: Biased LLM Hiring Recommendations Alter Human Decision Making and Limit Human Autonomy
- Title(参考訳): 人間の意思決定と人間の自律性を制限するためのレコメンデーションを、LLMが採用
- Authors: Kyra Wilson, Mattea Sim, Anna-Maria Gueorguieva, Aylin Caliskan,
- Abstract要約: 人々は、レースベースの選好(バイアス)を示すシミュレーションAIモデルと協力し、16のハイステータスな職業の候補を評価する。
シミュレーションされたAIバイアスは、実世界のAIシステムにおける人種バイアスの事実的および反事実的推定を近似する。
- 参考スコア(独自算出の注目度): 8.423021413553464
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this study, we conduct a resume-screening experiment (N=528) where people collaborate with simulated AI models exhibiting race-based preferences (bias) to evaluate candidates for 16 high and low status occupations. Simulated AI bias approximates factual and counterfactual estimates of racial bias in real-world AI systems. We investigate people's preferences for White, Black, Hispanic, and Asian candidates (represented through names and affinity groups on quality-controlled resumes) across 1,526 scenarios and measure their unconscious associations between race and status using implicit association tests (IATs), which predict discriminatory hiring decisions but have not been investigated in human-AI collaboration. When making decisions without AI or with AI that exhibits no race-based preferences, people select all candidates at equal rates. However, when interacting with AI favoring a particular group, people also favor those candidates up to 90% of the time, indicating a significant behavioral shift. The likelihood of selecting candidates whose identities do not align with common race-status stereotypes can increase by 13% if people complete an IAT before conducting resume screening. Finally, even if people think AI recommendations are low quality or not important, their decisions are still vulnerable to AI bias under certain circumstances. This work has implications for people's autonomy in AI-HITL scenarios, AI and work, design and evaluation of AI hiring systems, and strategies for mitigating bias in collaborative decision-making tasks. In particular, organizational and regulatory policy should acknowledge the complex nature of AI-HITL decision making when implementing these systems, educating people who use them, and determining which are subject to oversight.
- Abstract(参考訳): 本研究では,レースベース選好(バイアス)を示す模擬AIモデルと協調して16の高低職種候補を評価できる履歴スクリーニング実験(N=528)を行った。
シミュレーションされたAIバイアスは、実世界のAIシステムにおける人種バイアスの事実的および反事実的推定を近似する。
我々は,白人,黒人,ヒスパニック,アジア系候補者の選好を1,526件のシナリオで調査し,人種と地位の無意識の関連を,差別的雇用決定を予測できる暗黙の関連性テスト(IAT)を用いて測定した。
人種ベースの選好を示すAIやAIなしで意思決定を行う場合、人々は平等なレートですべての候補者を選択する。
しかし、特定のグループを好んでAIと対話する場合、最大90%の確率で候補者を好んでおり、行動の変化が顕著であることを示している。
一般の人種統計ステレオタイプと一致しない候補を選択する確率は、再開審査を行う前にIATを完了すると13%増加する可能性がある。
最後に、AIレコメンデーションが品質が低いか重要でないと思われても、その決定は特定の状況下でもAIバイアスに弱い。
この研究は、AI-HITLシナリオにおける人々の自律性、AIと作業、AI採用システムの設計と評価、協調的な意思決定タスクにおけるバイアスを軽減する戦略に影響を及ぼす。
特に、組織および規制政策は、これらのシステムを実装する際にAI-HITL決定の複雑な性質を認識し、それらを使用する人々を教育し、どれが監視対象であるかを決定するべきである。
関連論文リスト
- Measuring Political Preferences in AI Systems: An Integrative Approach [0.0]
この研究は、主要なAIシステムにおける政治的偏見を評価するために、マルチメソッドアプローチを採用する。
その結果、現代のAIシステムでは、一貫した左利きバイアスが示される。
AIシステムにおける組織的な政治的偏見の存在は、視点の多様性の低減、社会的分極の増大、AI技術における公的な不信の可能性などのリスクを引き起こす。
論文 参考訳(メタデータ) (2025-03-04T01:40:28Z) - Nationality, Race, and Ethnicity Biases in and Consequences of Detecting AI-Generated Self-Presentations [1.6772190302364975]
言語スタイルのようなコンテンツは、AI検出において重要な役割を担った。
アジアとヒスパニックの応募者は、国内学生とラベル付けされた場合、AIユーザーと判断される傾向があった。
論文 参考訳(メタデータ) (2024-12-24T18:31:44Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Bending the Automation Bias Curve: A Study of Human and AI-based
Decision Making in National Security Contexts [0.0]
私たちは、AIに関する背景知識とAIに対する信頼の関係、自動化バイアスの確率に影響を与える他の要因との相互作用について理論を立てています。
我々は、AI産業のレベルが異なる9カ国の9000人の成人の代表例を対象に、事前登録されたタスク識別実験でテストを行った。
論文 参考訳(メタデータ) (2023-06-28T18:57:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。