論文の概要: When Bias Backfires: The Modulatory Role of Counterfactual Explanations on the Adoption of Algorithmic Bias in XAI-Supported Human Decision-Making
- arxiv url: http://arxiv.org/abs/2505.14377v1
- Date: Tue, 20 May 2025 14:00:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.333224
- Title: When Bias Backfires: The Modulatory Role of Counterfactual Explanations on the Adoption of Algorithmic Bias in XAI-Supported Human Decision-Making
- Title(参考訳): バイアスのバックファイア時:XAIによる人的意思決定におけるアルゴリズムバイアスの導入に関する非現実的説明の調整的役割
- Authors: Ulrike Kuhl, Annika Bush,
- Abstract要約: この研究は採用決定をシミュレートし、偏りのあるAIレコメンデーションが時間の経過とともに人間の判断にどのように影響するかを調べる。
その結果,対象候補者の資格が同等であった時期の70%は,参加者がAIレコメンデーションに従っていたことが示唆された。
相互作用後の段階では、参加者の独立した決定は、以前に反実的な説明が提供されなかった場合のバイアスと一致したが、説明が与えられた場合のバイアスを逆転させた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although the integration of artificial intelligence (AI) into everyday tasks improves efficiency and objectivity, it also risks transmitting bias to human decision-making. In this study, we conducted a controlled experiment that simulated hiring decisions to examine how biased AI recommendations - augmented with or without counterfactual explanations - influence human judgment over time. Participants, acting as hiring managers, completed 60 decision trials divided into a baseline phase without AI, followed by a phase with biased (X)AI recommendations (favoring either male or female candidates), and a final post-interaction phase without AI. Our results indicate that the participants followed the AI recommendations 70% of the time when the qualifications of the given candidates were comparable. Yet, only a fraction of participants detected the gender bias (8 out of 294). Crucially, exposure to biased AI altered participants' inherent preferences: in the post-interaction phase, participants' independent decisions aligned with the bias when no counterfactual explanations were provided before, but reversed the bias when explanations were given. Reported trust did not differ significantly across conditions. Confidence varied throughout the study phases after exposure to male-biased AI, indicating nuanced effects of AI bias on decision certainty. Our findings point to the importance of calibrating XAI to avoid unintended behavioral shifts in order to safeguard equitable decision-making and prevent the adoption of algorithmic bias.
- Abstract(参考訳): 人工知能(AI)を日常のタスクに統合することは効率と客観性を向上させるが、人間の意思決定に偏見を伝達するリスクも負う。
本研究では,AIレコメンデーションが時間とともに人的判断にどのように影響するかを検討するために,採用決定をシミュレートする制御実験を行った。
採用マネージャとして働く参加者は、AIのないベースラインフェーズに60の意思決定トライアルを分割し、バイアスのある(X)AIレコメンデーション(男性候補か女性候補か)と、AIのない最後の相互作用フェーズに分けた。
その結果,対象候補者の資格が同等であった時期の70%は,参加者がAIレコメンデーションに従っていたことが示唆された。
しかし,男女差は294例中8例であった。
批判的に、偏見のあるAIに曝露すると、参加者の固有の嗜好が変化した: 相互作用後の段階では、参加者の独立した決定は、以前に反実的な説明が提供されなかったときに偏見と一致したが、説明が与えられたときに偏見は逆転した。
報告された信頼は条件によって大きくは異ならなかった。
自信は、男性バイアスAIに曝された後、研究フェーズを通じて変化し、AIバイアスが決定の確実性に与える影響を示唆した。
本研究は, 公平な意思決定を守り, アルゴリズムバイアスの導入を防止するために, 意図しない行動変化を避けるためにXAIを校正することが重要であることを示唆している。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Human-Alignment Influences the Utility of AI-assisted Decision Making [16.732483972136418]
我々は,アライメントの程度が,AIによる意思決定の有用性に与える影響について検討する。
以上の結果から,AIによる意思決定におけるアライメントの程度と有効性との関連が示唆された。
論文 参考訳(メタデータ) (2025-01-23T19:01:47Z) - Using Machine Bias To Measure Human Bias [10.983607899068204]
人為的意思決定におけるバイアスを評価するための機械学習ベースのフレームワークを提案する。
提案手法が既存の代替手段よりも優れていることを示す理論的保証と実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-11-27T08:02:31Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Overcoming Anchoring Bias: The Potential of AI and XAI-based Decision Support [0.0]
情報システム(IS)は、個人の意思決定に影響を与えるバイアスをアンカーする負の効果を利用するように設計されている。
人工知能(AI)の最近の進歩は、偏見のある決定を緩和する新たな機会を開いた。
論文 参考訳(メタデータ) (2024-05-08T11:25:04Z) - Underspecified Human Decision Experiments Considered Harmful [18.27590643693167]
本稿では、統計的決定理論と情報経済学から合成された決定問題の広く適用可能な定義について述べる。
我々は、AIによる意思決定に関する最近の実証研究がこの基準を達成するかどうかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z) - Deciding Fast and Slow: The Role of Cognitive Biases in AI-assisted
Decision-making [46.625616262738404]
我々は、認知科学の分野からの知識を用いて、人間とAIの協調的な意思決定設定における認知バイアスを考慮します。
私たちは、人間とAIのコラボレーションでよく見られるバイアスであるバイアスのアンカーに特に焦点を当てています。
論文 参考訳(メタデータ) (2020-10-15T22:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。