論文の概要: User Decision Guidance with Selective Explanation Presentation from Explainable-AI
- arxiv url: http://arxiv.org/abs/2402.18016v2
- Date: Thu, 16 May 2024 21:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 18:22:03.493327
- Title: User Decision Guidance with Selective Explanation Presentation from Explainable-AI
- Title(参考訳): 説明可能なAIからの選択的説明提示によるユーザ意思決定指導
- Authors: Yosuke Fukuchi, Seiji Yamada,
- Abstract要約: IDSSがユーザーの意思決定を強化するための説明をどうやって選ぶべきかは、未解決の問題である。
本稿では,XAI説明を選択的に提示するX-セレクタを提案する。
これによりIDSSは、AIが推奨する決定に戦略的にユーザーを導くことができる。
- 参考スコア(独自算出の注目度): 2.6396287656676725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the challenge of selecting explanations for XAI (Explainable AI)-based Intelligent Decision Support Systems (IDSSs). IDSSs have shown promise in improving user decisions through XAI-generated explanations along with AI predictions, and the development of XAI made it possible to generate a variety of such explanations. However, how IDSSs should select explanations to enhance user decision-making remains an open question. This paper proposes X-Selector, a method for selectively presenting XAI explanations. It enables IDSSs to strategically guide users to an AI-suggested decision by predicting the impact of different combinations of explanations on a user's decision and selecting the combination that is expected to minimize the discrepancy between an AI suggestion and a user decision. We compared the efficacy of X-Selector with two naive strategies (all possible explanations and explanations only for the most likely prediction) and two baselines (no explanation and no AI support). The results suggest the potential of X-Selector to guide users to AI-suggested decisions and improve task performance under the condition of a high AI accuracy.
- Abstract(参考訳): 本稿では,XAI (Explainable AI) ベースの知能意思決定支援システム (IDSSs) について解説する。
IDSSは、AI予測とともにXAIが生成した説明を通じてユーザー決定を改善することを約束しており、XAIの開発により、さまざまな説明を生成することが可能になった。
しかし、IDSSがユーザー決定を強化するための説明をどうやって選択すべきかは、未解決の問題である。
本稿では,XAI説明を選択的に提示するX-セレクタを提案する。
これにより、IDSSは、ユーザーの決定に対する説明の異なる組み合わせの影響を予測し、AI提案とユーザ決定の矛盾を最小限に抑えると期待される組み合わせを選択することで、AI推奨の判断に戦略的にユーザーを導くことができる。
我々は,X-セレクタの有効性を,2つのナイーブ戦略(最も可能性の高い予測に対してのみ可能な説明と説明)と2つのベースライン(説明なし,AIサポートなし)と比較した。
結果から,X-Selectorは,AIを推奨する意思決定にユーザを誘導し,AI精度の高い条件下でのタスクパフォーマンスを向上させる可能性が示唆された。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Should XAI Nudge Human Decisions with Explanation Biasing? [2.6396287656676725]
本稿では、説明可能なAI(XAI)の説明に自動バイアスを導入するアプローチであるNudge-XAIの以前の試行についてレビューする。
Nudge-XAIは、説明を提供することや強調することの影響を予測し、強制せずにAI推奨の意思決定に向けてユーザーを誘導するユーザモデルを使用している。
論文 参考訳(メタデータ) (2024-06-11T14:53:07Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Understanding the Role of Human Intuition on Reliance in Human-AI
Decision-Making with Explanations [44.01143305912054]
意思決定者の直感がAI予測と説明の使用に与える影響について検討する。
以上の結果から,AIの予測と説明に関する3種類の直観が明らかになった。
これらの経路を用いて、なぜ機能に基づく説明が参加者の決定結果を改善しなかったのかを説明し、AIへの依存度を高めた。
論文 参考訳(メタデータ) (2023-01-18T01:33:50Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。