論文の概要: Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems
- arxiv url: http://arxiv.org/abs/2106.03775v1
- Date: Mon, 7 Jun 2021 16:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 23:07:35.542205
- Title: Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems
- Title(参考訳): 深層強化学習駆動自律システムにおけるユーザ信頼向上のための説明可能な人工知能(xai)
- Authors: Jeff Druce, Michael Harradon, James Tittle
- Abstract要約: 我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
- 参考スコア(独自算出の注目度): 0.8701566919381223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of providing users of deep Reinforcement Learning
(RL) based systems with a better understanding of when their output can be
trusted. We offer an explainable artificial intelligence (XAI) framework that
provides a three-fold explanation: a graphical depiction of the systems
generalization and performance in the current game state, how well the agent
would play in semantically similar environments, and a narrative explanation of
what the graphical information implies. We created a user-interface for our XAI
framework and evaluated its efficacy via a human-user experiment. The results
demonstrate a statistically significant increase in user trust and acceptance
of the AI system with explanation, versus the AI system without explanation.
- Abstract(参考訳): 我々は,深い強化学習(rl)ベースのシステムのユーザに対して,そのアウトプットがいつ信頼できるかをよりよく理解する方法を提供する問題を考える。
ゲーム状態におけるシステムの一般化と性能のグラフィカルな描写、エージェントが意味論的に類似した環境でどれだけうまくプレイできるか、そしてグラフィカルな情報が何を意味するのかを記述可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
その結果、説明のないAIシステムに比べて、ユーザ信頼とAIシステムの受容が統計的に顕著に増加したことが示される。
関連論文リスト
- Explainable AI does not provide the explanations end-users are asking
for [0.0]
我々は、XAIのデプロイメントにおける制限について議論し、厳格な検証とともに透明性がAIシステムへの信頼を得るのに適していると結論づける。
XAI技術は、複雑なモデルや関連する予測を理解し、信頼を得ることを目標として、多くのAIシステムのユーザによって頻繁に要求される。
論文 参考訳(メタデータ) (2023-01-25T10:34:38Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Principles of Explanation in Human-AI Systems [0.7768952514701895]
説明可能な人工知能(XAI)は、現代のAIとMLシステムの開発に応えて再導入されている。
XAIシステムは、しばしばアルゴリズムに焦点を当てており、説明可能性に関する基本的な未テストのアイデアを実装したアルゴリズムの開始と終了である。
我々は,まず,XAIシステムの設計,テスト,実装に関する人間中心の原則から始めることを提案する。
論文 参考訳(メタデータ) (2021-02-09T17:43:45Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。