論文の概要: Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios
- arxiv url: http://arxiv.org/abs/2207.03214v1
- Date: Thu, 7 Jul 2022 10:40:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:23:36.195063
- Title: Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios
- Title(参考訳): 強化学習シナリオにおけるロボット行動の人間的説明の評価
- Authors: Francisco Cruz, Charlotte Young, Richard Dazeley, Peter Vamplew
- Abstract要約: 我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
- 参考スコア(独自算出の注目度): 1.671353192305391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence is a research field that tries to provide
more transparency for autonomous intelligent systems. Explainability has been
used, particularly in reinforcement learning and robotic scenarios, to better
understand the robot decision-making process. Previous work, however, has been
widely focused on providing technical explanations that can be better
understood by AI practitioners than non-expert end-users. In this work, we make
use of human-like explanations built from the probability of success to
complete the goal that an autonomous robot shows after performing an action.
These explanations are intended to be understood by people who have no or very
little experience with artificial intelligence methods. This paper presents a
user trial to study whether these explanations that focus on the probability an
action has of succeeding in its goal constitute a suitable explanation for
non-expert end-users. The results obtained show that non-expert participants
rate robot explanations that focus on the probability of success higher and
with less variance than technical explanations generated from Q-values, and
also favor counterfactual explanations over standalone explanations.
- Abstract(参考訳): 説明可能な人工知能は、自律的なインテリジェントシステムに対してより透明性を提供する研究分野である。
説明可能性、特に強化学習やロボットシナリオにおいて、ロボットの意思決定プロセスをよりよく理解するために使われてきた。
しかし、これまでの研究は、専門家以外のエンドユーザーよりもAI実践者が理解しやすい技術的な説明を提供することに重点を置いてきた。
本研究では、自律型ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間的な説明を利用する。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
本稿では,その目的にアクションが成功する確率に着目した説明が,非熟練のエンドユーザにとって適切な説明となるか検討する。
その結果,Q値から生じる技術的説明よりも成功確率が高く,ばらつきが少ないロボットの説明が評価され,スタンドアローンの説明よりも事実的説明が望ましいことがわかった。
関連論文リスト
- Let people fail! Exploring the influence of explainable virtual and robotic agents in learning-by-doing tasks [45.23431596135002]
本研究は,古典的対パートナー意識による説明が学習作業中の人間の行動とパフォーマンスに与える影響を比較検討した。
その結果, パートナー意識による説明は, 関係する人工エージェントの種類によって, 参加者に異なる影響を及ぼした。
論文 参考訳(メタデータ) (2024-11-15T13:22:04Z) - Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Introspection-based Explainable Reinforcement Learning in Episodic and
Non-episodic Scenarios [14.863872352905629]
イントロスペクションベースのアプローチは、成功の確率を提供するために強化学習エージェントと併用することができる。
イントロスペクションに基づくアプローチは、非エポゾディックなロボティクス環境でもたらされた動作を説明するためにも使用できる。
論文 参考訳(メタデータ) (2022-11-23T13:05:52Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Explainable AI for Robot Failures: Generating Explanations that Improve
User Assistance in Fault Recovery [19.56670862587773]
エージェントの計画実行中に予期せぬ障害の原因を非専門家に説明する,新たなタイプの説明を紹介する。
既存のエンコーダデコーダモデルを拡張して,このような説明を自律的に生成する方法を検討する。
論文 参考訳(メタデータ) (2021-01-05T16:16:39Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。