論文の概要: On the Relationship Between Explanations, Fairness Perceptions, and
Decisions
- arxiv url: http://arxiv.org/abs/2204.13156v2
- Date: Fri, 29 Apr 2022 14:29:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 11:12:00.058419
- Title: On the Relationship Between Explanations, Fairness Perceptions, and
Decisions
- Title(参考訳): 説明・公平感・判断の関係について
- Authors: Jakob Schoeffer, Maria De-Arteaga, Niklas Kuehl
- Abstract要約: AIベースのシステムのレコメンデーションは誤りか不公平であることが知られている。
人間は最終決定者となることがしばしば提案される。
以前の研究は、説明は人間の意思決定者が意思決定の質を高めるのに必須の道であると主張した。
- 参考スコア(独自算出の注目度): 2.5372245630249632
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It is known that recommendations of AI-based systems can be incorrect or
unfair. Hence, it is often proposed that a human be the final decision-maker.
Prior work has argued that explanations are an essential pathway to help human
decision-makers enhance decision quality and mitigate bias, i.e., facilitate
human-AI complementarity. For these benefits to materialize, explanations
should enable humans to appropriately rely on AI recommendations and override
the algorithmic recommendation when necessary to increase distributive fairness
of decisions. The literature, however, does not provide conclusive empirical
evidence as to whether explanations enable such complementarity in practice. In
this work, we (a) provide a conceptual framework to articulate the
relationships between explanations, fairness perceptions, reliance, and
distributive fairness, (b) apply it to understand (seemingly) contradictory
research findings at the intersection of explanations and fairness, and (c)
derive cohesive implications for the formulation of research questions and the
design of experiments.
- Abstract(参考訳): aiベースのシステムのレコメンデーションは誤りか不公平かが知られている。
したがって、人間は最終決定者となることがしばしば提案される。
以前の研究は、人間の意思決定者が意思決定の質を高め、偏見を和らげる、すなわち人間とAIの相補性を促進するために、説明が不可欠であると主張している。
これらのメリットを具現化するためには、人間はAIレコメンデーションを適切に頼り、意思決定の分配的公正性を高めるために必要なアルゴリズムレコメンデーションを無効にすべきである。
しかし、この文献は、説明が実際にそのような相補性をもたらすかどうかに関する決定的な実証的な証拠を提供していない。
この作品では、
(a)説明、公平感、信頼、分配的公平性の関係を明確化する概念的枠組みを提供する。
(b)説明と公正の交点における矛盾した研究結果の理解(一見)に当てはめ、
(c) 研究質問の定式化及び実験の設計に関する結束的含意を導出する。
関連論文リスト
- Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z) - The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - A Decision Theoretic Framework for Measuring AI Reliance [23.353778024330165]
人間はしばしば人工知能(AI)システムの助けを借りて意思決定をする。
研究者は、補完的なパフォーマンスを達成する上で重要な要素として、人間がAIに適切に依存していることを確認する。
本稿では, 統計的決定理論に基づく信頼の形式的定義を提案し, 意思決定者がAIの推奨に従う確率として信頼の概念を分離する。
論文 参考訳(メタデータ) (2024-01-27T09:13:09Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - AI Reliance and Decision Quality: Fundamentals, Interdependence, and the Effects of Interventions [6.356355538824237]
私たちは、AIによる意思決定に関する現在の文献で、信頼と意思決定品質が不適切に混ざり合っていると論じています。
我々の研究は、AIによる意思決定における信頼行動と意思決定品質の区別の重要性を強調している。
論文 参考訳(メタデータ) (2023-04-18T08:08:05Z) - Explanations, Fairness, and Appropriate Reliance in Human-AI Decision-Making [10.049226270783562]
特徴に基づく説明がAIによる意思決定の分配的公平性に及ぼす影響について検討する。
以上の結果から,説明は公正感に影響を及ぼし,人間のAI推奨に固執する傾向に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-23T19:10:59Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。