論文の概要: Towards Personalized Explanation of Robot Path Planning via User
Feedback
- arxiv url: http://arxiv.org/abs/2011.00524v2
- Date: Fri, 5 Mar 2021 19:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:48:59.905179
- Title: Towards Personalized Explanation of Robot Path Planning via User
Feedback
- Title(参考訳): ユーザフィードバックによるロボット経路計画のパーソナライズ化に向けて
- Authors: Kayla Boggess, Shenghui Chen, Lu Feng
- Abstract要約: 本稿では,ユーザフィードバックによるロボット経路計画のパーソナライズされた説明を生成するシステムを提案する。
このシステムは、ユーザのインタラクションを通じて、任意の好みの競合を検出し、解決することができる。
- 参考スコア(独自算出の注目度): 1.7231251035416644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior studies have found that explaining robot decisions and actions helps to
increase system transparency, improve user understanding, and enable effective
human-robot collaboration. In this paper, we present a system for generating
personalized explanations of robot path planning via user feedback. We consider
a robot navigating in an environment modeled as a Markov decision process
(MDP), and develop an algorithm to automatically generate a personalized
explanation of an optimal MDP policy, based on the user preference regarding
four elements (i.e., objective, locality, specificity, and corpus). In
addition, we design the system to interact with users via answering users'
further questions about the generated explanations. Users have the option to
update their preferences to view different explanations. The system is capable
of detecting and resolving any preference conflict via user interaction. The
results of an online user study show that the generated personalized
explanations improve user satisfaction, while the majority of users liked the
system's capabilities of question-answering and conflict detection/resolution.
- Abstract(参考訳): これまでの研究によると、ロボットの決定と行動の説明はシステムの透明性を高め、ユーザーの理解を改善し、効果的な人間とロボットのコラボレーションを可能にする。
本稿では,ユーザフィードバックによるロボット経路計画のパーソナライズされた説明を生成するシステムを提案する。
我々は,マルコフ決定プロセス(MDP)としてモデル化された環境をナビゲートするロボットについて検討し,4つの要素(目的,局所性,特異性,コーパス)に関するユーザの好みに基づいて,最適なMDPポリシーのパーソナライズされた説明を自動的に生成するアルゴリズムを開発した。
さらに,ユーザが生成した説明に関するさらなる質問に答えることで,ユーザと対話するシステムを設計する。
ユーザーは好みをアップデートして、異なる説明を見ることができる。
このシステムは、ユーザのインタラクションを通じて任意の選好コンフリクトを検出して解決することができる。
オンラインユーザスタディの結果は、生成されたパーソナライズされた説明によってユーザの満足度が向上することを示している。
関連論文リスト
- Towards Probabilistic Planning of Explanations for Robot Navigation [2.6196780831364643]
本稿では,ユーザ中心の設計原則をロボット経路計画プロセスのコアに直接組み込む新しいアプローチを提案する。
本稿では,ロボットナビゲーションにおける説明の自動計画のための確率的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-26T09:52:14Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Not all users are the same: Providing personalized explanations for
sequential decision making problems [25.24098967133101]
本研究では,エンドツーエンドの適応的説明生成システムを提案する。
最初は、エージェントが対話できるさまざまなタイプのユーザを学習することから始まる。
その後、ハエの型を特定し、それに応じて説明を調整する。
論文 参考訳(メタデータ) (2021-06-23T07:46:19Z) - A Knowledge Driven Approach to Adaptive Assistance Using Preference
Reasoning and Explanation [3.8673630752805432]
本稿では,ユーザが何をしようとしているのかを推測するために,Analogical Theory of Mindを用いたロボットを提案する。
ユーザーが不確実か混乱している場合、ロボットはユーザーに説明を与える。
論文 参考訳(メタデータ) (2020-12-05T00:18:43Z) - Soliciting Human-in-the-Loop User Feedback for Interactive Machine
Learning Reduces User Trust and Impressions of Model Accuracy [8.11839312231511]
混合開始システムにより、ユーザは対話的にフィードバックを提供し、システムパフォーマンスを向上させることができる。
本研究は,フィードバックの提供行為が知的システムのユーザ理解とその正確性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-08-28T16:46:41Z) - Optimizing Interactive Systems via Data-Driven Objectives [70.3578528542663]
本稿では,観察されたユーザインタラクションから直接目的を推測する手法を提案する。
これらの推論は、事前の知識によらず、様々な種類のユーザー行動にまたがって行われる。
本稿では,これらの推定対象を最適化するために利用する新しいアルゴリズムであるInteractive System(ISO)を紹介する。
論文 参考訳(メタデータ) (2020-06-19T20:49:14Z) - Towards Transparent Robotic Planning via Contrastive Explanations [1.7231251035416644]
我々はマルコフ決定プロセスに基づくロボット計画政策の対照的な説明概念を定式化する。
本稿では, 選択性, 拘束性, 責任の3つの要因を伴って, 矛盾説明の自動生成手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T19:44:31Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。