論文の概要: Unequal Uncertainty: Rethinking Algorithmic Interventions for Mitigating Discrimination from AI
- arxiv url: http://arxiv.org/abs/2508.07872v1
- Date: Mon, 11 Aug 2025 11:43:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.068162
- Title: Unequal Uncertainty: Rethinking Algorithmic Interventions for Mitigating Discrimination from AI
- Title(参考訳): 不確実性:AIの差別を緩和するためのアルゴリズム的介入を再考する
- Authors: Holli Sargeant, Mackenzie Jorgensen, Arina Shah, Adrian Weller, Umang Bhatt,
- Abstract要約: 人工知能の予測の不確実性は、AI支援による意思決定に緊急の法的および倫理的課題をもたらす。
人間のAI協力のためのガードレールとして機能する2つのアルゴリズム的介入について検討する。
どちらの介入も、英国法の下では違法な差別のリスクをもたらすが、選択的摩擦はより公平で説明可能なAI支援による意思決定への、有望な道筋を提供する、と我々は主張する。
- 参考スコア(独自算出の注目度): 38.122893275090206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty in artificial intelligence (AI) predictions poses urgent legal and ethical challenges for AI-assisted decision-making. We examine two algorithmic interventions that act as guardrails for human-AI collaboration: selective abstention, which withholds high-uncertainty predictions from human decision-makers, and selective friction, which delivers those predictions together with salient warnings or disclosures that slow the decision process. Research has shown that selective abstention based on uncertainty can inadvertently exacerbate disparities and disadvantage under-represented groups that disproportionately receive uncertain predictions. In this paper, we provide the first integrated socio-technical and legal analysis of uncertainty-based algorithmic interventions. Through two case studies, AI-assisted consumer credit decisions and AI-assisted content moderation, we demonstrate how the seemingly neutral use of uncertainty thresholds can trigger discriminatory impacts. We argue that, although both interventions pose risks of unlawful discrimination under UK law, selective frictions offer a promising pathway toward fairer and more accountable AI-assisted decision-making by preserving transparency and encouraging more cautious human judgment.
- Abstract(参考訳): 人工知能(AI)の予測の不確実性は、AI支援による意思決定に緊急の法的および倫理的課題をもたらす。
人間の意思決定者による不確実な予測を無視する選択的棄権と、意思決定プロセスの遅滞を遅らせる健全な警告や開示と共にこれらの予測を伝達する選択的摩擦という、AI協力のためのガードレールとして機能する2つのアルゴリズム的介入について検討する。
不確実性に基づく選択的棄権は、不確実な予測を不当に受け取っている不確実性や不公平さを必然的に悪化させることが示されている。
本稿では,不確実性に基づくアルゴリズム介入の社会・技術・法的分析を初めて実施する。
AIによる消費者信用決定とAIによるコンテンツモデレーションの2つのケーススタディを通じて、不確実性しきい値の使用が差別的影響をいかに引き起こすかを実証する。
どちらの介入も、英国法の下で違法な差別のリスクをもたらすが、選択的な摩擦は、透明性を保ち、より慎重な人間の判断を促進することによって、より公平で説明可能なAI支援意思決定への、有望な道筋を提供する、と我々は主張する。
関連論文リスト
- Human aversion? Do AI Agents Judge Identity More Harshly Than Performance [0.06554326244334868]
我々は,大規模言語モデルに基づくAIエージェントがどのように人間の入力を評価し,統合するかを検討する。
AIシステムは人間のアドバイスを体系的に減らし、アルゴリズムの誤りよりも人間の誤りを厳しく罰する。
論文 参考訳(メタデータ) (2025-03-31T02:05:27Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Speculations on Uncertainty and Humane Algorithms [0.0]
Provenanceは、アルゴリズムが危険を防ぐために何を知っているかを知ることを可能にする。
正当でない、あるいは不可能な仮定をするよりも、私たちが知っていることを計算することが不可欠です。
論文 参考訳(メタデータ) (2024-08-13T08:54:34Z) - A Decision Theoretic Framework for Measuring AI Reliance [23.353778024330165]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - AI Reliance and Decision Quality: Fundamentals, Interdependence, and the Effects of Interventions [6.356355538824237]
私たちは、AIによる意思決定に関する現在の文献で、信頼と意思決定品質が不適切に混ざり合っていると論じています。
我々の研究は、AIによる意思決定における信頼行動と意思決定品質の区別の重要性を強調している。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Decision-makers Processing of AI Algorithmic Advice: Automation Bias
versus Selective Adherence [0.0]
主な懸念は、アルゴリズムに対する人間の過度な信頼は、人間とアルゴリズムの相互作用に新しいバイアスをもたらすことである。
第2の懸念は、意思決定者が既存の信念やステレオタイプと一致した場合、アルゴリズム的なアドバイスを選択的に採用する傾向にある。
オランダにおける学校教師の雇用に関する決定におけるアルゴリズム的アドバイスの使用をシミュレートする2つの研究を通して、これらを評価する。
選択的、偏りのある遵守の私たちの発見は、公共部門でアルゴリズムの使用を推し進めた中立性の約束です。
論文 参考訳(メタデータ) (2021-03-03T13:10:50Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - When Does Uncertainty Matter?: Understanding the Impact of Predictive
Uncertainty in ML Assisted Decision Making [68.19284302320146]
我々は,異なるレベルの専門知識を持つ人々が,異なるタイプの予測不確実性にどう反応するかを評価するために,ユーザスタディを実施している。
その結果,後続の予測分布を示すことは,MLモデルの予測との相違点が小さくなることがわかった。
このことは、後続の予測分布は、人間の分布の種類や専門性を考慮し、注意を払って使用するべき有用な決定支援として役立つ可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-11-12T02:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。