論文の概要: Towards Transparent Robotic Planning via Contrastive Explanations
- arxiv url: http://arxiv.org/abs/2003.07425v1
- Date: Mon, 16 Mar 2020 19:44:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:50:51.204896
- Title: Towards Transparent Robotic Planning via Contrastive Explanations
- Title(参考訳): コントラスト的説明による透明ロボット計画に向けて
- Authors: Shenghui Chen, Kayla Boggess and Lu Feng
- Abstract要約: 我々はマルコフ決定プロセスに基づくロボット計画政策の対照的な説明概念を定式化する。
本稿では, 選択性, 拘束性, 責任の3つの要因を伴って, 矛盾説明の自動生成手法を提案する。
- 参考スコア(独自算出の注目度): 1.7231251035416644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing explanations of chosen robotic actions can help to increase the
transparency of robotic planning and improve users' trust. Social sciences
suggest that the best explanations are contrastive, explaining not just why one
action is taken, but why one action is taken instead of another. We formalize
the notion of contrastive explanations for robotic planning policies based on
Markov decision processes, drawing on insights from the social sciences. We
present methods for the automated generation of contrastive explanations with
three key factors: selectiveness, constrictiveness, and responsibility. The
results of a user study with 100 participants on the Amazon Mechanical Turk
platform show that our generated contrastive explanations can help to increase
users' understanding and trust of robotic planning policies while reducing
users' cognitive burden.
- Abstract(参考訳): 選択されたロボット行動の説明を提供することは、ロボット計画の透明性を高め、ユーザの信頼を高めるのに役立つ。
社会科学は、最良の説明は対照的であり、ある行動がなぜ取られるのかだけでなく、ある行動が他の行動から取られるのかを説明する。
我々は,マルコフ決定過程に基づくロボット計画政策の対比的説明の概念を定式化し,社会科学からの洞察を導き出す。
本稿では, 選択性, 拘束性, 責任の3つの要因を伴って, 矛盾説明の自動生成手法を提案する。
amazon mechanical turk platformの100名の参加者によるユーザ調査の結果,当社が生成した対照的な説明は,ユーザのロボット計画方針に対する理解と信頼を高め,ユーザの認知的負担を軽減する上で有用であることが示された。
関連論文リスト
- Dynamic Explanation Emphasis in Human-XAI Interaction with Communication Robot [2.6396287656676725]
DynEmphは、XAI生成した説明を物理的表現で強調する場所を決定するためのコミュニケーションロボットの方法である。
特定のポイントをユーザに強調する効果を予測し、予測されたユーザ決定とAIが提案する決定との違いを最小化することを目指している。
論文 参考訳(メタデータ) (2024-03-21T16:50:12Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Understanding a Robot's Guiding Ethical Principles via Automatically
Generated Explanations [4.393037165265444]
我々は、ユーザーが計画について提案し、自動的に生成された対照的な説明を受けられるように、既存の倫理的枠組みを構築している。
ユーザスタディの結果は、生成された説明は、ロボットの計画の根底にある倫理的原則を理解するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2022-06-20T22:55:00Z) - Two ways to make your robot proactive: reasoning about human intentions,
or reasoning about possible futures [69.03494351066846]
ロボットをアクティブにする方法を2つ検討する。
1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。
もう1つの方法は、将来起こりうる脅威や機会を推論し、それを防ぐか、または育てるために行動することである。
論文 参考訳(メタデータ) (2022-05-11T13:33:14Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning [0.0]
我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
論文 参考訳(メタデータ) (2020-12-22T02:14:52Z) - A Knowledge Driven Approach to Adaptive Assistance Using Preference
Reasoning and Explanation [3.8673630752805432]
本稿では,ユーザが何をしようとしているのかを推測するために,Analogical Theory of Mindを用いたロボットを提案する。
ユーザーが不確実か混乱している場合、ロボットはユーザーに説明を与える。
論文 参考訳(メタデータ) (2020-12-05T00:18:43Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。