論文の概要: Dynamic Explanation Selection Towards Successful User-Decision Support
with Explainable AI
- arxiv url: http://arxiv.org/abs/2402.18016v1
- Date: Wed, 28 Feb 2024 03:21:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:37:23.355091
- Title: Dynamic Explanation Selection Towards Successful User-Decision Support
with Explainable AI
- Title(参考訳): 説明可能なAIを用いたユーザ意思決定支援に向けた動的説明選択
- Authors: Yosuke Fukuchi and Seiji Yamada
- Abstract要約: 本稿では,XAI (Explainable AI) を用いた知的意思決定支援システム (IDSS) の解説方法について述べる。
X-Selectorは、ユーザー決定に異なる説明の組み合わせが与える影響を予測することによって、より良い意思決定を促すことを目的としている。
その結果,X-Selectorは,AIの精度が高い場合や,低い場合の課題に対して,ユーザに推奨の意思決定を指導し,パフォーマンスを向上させることができる可能性が示唆された。
- 参考スコア(独自算出の注目度): 3.118371710802893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of how to select explanations for XAI
(Explainable AI)-based Intelligent Decision Support Systems (IDSSs). IDSSs have
shown promise in improving user decisions through XAI-generated explanations
along with AI predictions. As the development of XAI made various explanations
available, we believe that IDSSs can be greatly improved if they can
strategically select explanations that guide users to better decisions. This
paper proposes X-Selector, a method for dynamically selecting explanations.
X-Selector aims to guide users to better decisions by predicting the impact of
different combinations of explanations on user decisions. We compared
X-Selector's performance with two naive strategies (all possible explanations
and explanations only for the most likely prediction) and two baselines (no
explanation and no AI support). The results suggest the potential of X-Selector
to guide users to recommended decisions and improve the performance when AI
accuracy is high and a challenge when it is low.
- Abstract(参考訳): 本稿では,XAI (Explainable AI) ベースの知的意思決定支援システム (IDSS) における説明の選択方法について議論する。
IDSSは、AI予測とともに、XAI生成の説明を通じてユーザー決定を改善することを約束している。
XAIの開発で様々な説明が得られているので、より優れた意思決定を導く説明を戦略的に選択できれば、IDSSは大幅に改善できると考えています。
本稿では,説明を動的に選択するX-セレクタを提案する。
x-selectorは、説明の異なる組み合わせがユーザーの決定に与える影響を予測することによって、ユーザーをより良い決定へと導くことを目的としている。
x-selectorのパフォーマンスを2つのナイーブな戦略(最も可能性の高い予測のためにのみ可能な説明と説明)と2つのベースライン(説明なし、aiサポートなし)と比較した。
その結果,X-Selectorは,AIの精度が高い場合や,低い場合の課題に対して,ユーザの推奨決定を導き,パフォーマンスを向上させることができる可能性が示唆された。
関連論文リスト
- Contrastive Explanations That Anticipate Human Misconceptions Can Improve Human Decision-Making Skills [24.04643864795939]
人々の意思決定能力は、意思決定支援にAIに頼ると、しばしば改善に失敗する。
ほとんどのAIシステムは、AIの決定を正当化する一方的な説明を提供するが、ユーザーの思考を考慮しない。
我々は、AIの選択と予測された、おそらく人間の選択との違いを説明する、人間中心のコントラスト的な説明を生成するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2024-10-05T18:21:04Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Should XAI Nudge Human Decisions with Explanation Biasing? [2.6396287656676725]
本稿では、説明可能なAI(XAI)の説明に自動バイアスを導入するアプローチであるNudge-XAIの以前の試行についてレビューする。
Nudge-XAIは、説明を提供することや強調することの影響を予測し、強制せずにAI推奨の意思決定に向けてユーザーを誘導するユーザモデルを使用している。
論文 参考訳(メタデータ) (2024-06-11T14:53:07Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。