論文の概要: Effective Explanations for Belief-Desire-Intention Robots: When and What to Explain
- arxiv url: http://arxiv.org/abs/2507.02016v1
- Date: Wed, 02 Jul 2025 12:02:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:14.987394
- Title: Effective Explanations for Belief-Desire-Intention Robots: When and What to Explain
- Title(参考訳): 感情認識型ロボットの効果的な説明法--いつ,何を説明すべきか
- Authors: Cong Wang, Roberto Calandra, Verena Klös,
- Abstract要約: ロボットの推論プロセスの説明は、ユーザーがロボットの意図を理解するのに役立つ。
本研究では,キッチンにおける日常的な清掃作業を支援するロボットの,説明要求と内容に対するユーザの嗜好について検討した。
本稿では,驚きの行動を特定するアルゴリズムと,BDIロボットの効果的な説明を行うアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.509941298829417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When robots perform complex and context-dependent tasks in our daily lives, deviations from expectations can confuse users. Explanations of the robot's reasoning process can help users to understand the robot intentions. However, when to provide explanations and what they contain are important to avoid user annoyance. We have investigated user preferences for explanation demand and content for a robot that helps with daily cleaning tasks in a kitchen. Our results show that users want explanations in surprising situations and prefer concise explanations that clearly state the intention behind the confusing action and the contextual factors that were relevant to this decision. Based on these findings, we propose two algorithms to identify surprising actions and to construct effective explanations for Belief-Desire-Intention (BDI) robots. Our algorithms can be easily integrated in the BDI reasoning process and pave the way for better human-robot interaction with context- and user-specific explanations.
- Abstract(参考訳): ロボットが日々の生活の中で複雑でコンテキストに依存したタスクを実行すると、期待からの逸脱がユーザーを混乱させる可能性がある。
ロボットの推論プロセスの説明は、ユーザーがロボットの意図を理解するのに役立つ。
しかし、ユーザをいらいらさせるのを避けるためには、説明やそれらに含まれるものを提供することが重要である。
本研究では,キッチンにおける日常的な清掃作業を支援するロボットの,説明要求と内容に対するユーザの嗜好について検討した。
以上の結果から,利用者は意外な状況における説明を欲しがり,混乱した行動の背後にある意図と,この決定に関連する文脈的要因を明確に記述する簡潔な説明を好んだ。
そこで本研究では,驚きの行動を特定するアルゴリズムと,BDI(Belief-Desire-Intention)ロボットの効果的な説明を行うアルゴリズムを提案する。
我々のアルゴリズムは、BDI推論プロセスに容易に統合することができ、コンテキストやユーザ固有の説明との人間とロボットの相互作用を改善する道を開くことができる。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Understanding a Robot's Guiding Ethical Principles via Automatically
Generated Explanations [4.393037165265444]
我々は、ユーザーが計画について提案し、自動的に生成された対照的な説明を受けられるように、既存の倫理的枠組みを構築している。
ユーザスタディの結果は、生成された説明は、ロボットの計画の根底にある倫理的原則を理解するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2022-06-20T22:55:00Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI for Robot Failures: Generating Explanations that Improve
User Assistance in Fault Recovery [19.56670862587773]
エージェントの計画実行中に予期せぬ障害の原因を非専門家に説明する,新たなタイプの説明を紹介する。
既存のエンコーダデコーダモデルを拡張して,このような説明を自律的に生成する方法を検討する。
論文 参考訳(メタデータ) (2021-01-05T16:16:39Z) - A Knowledge Driven Approach to Adaptive Assistance Using Preference
Reasoning and Explanation [3.8673630752805432]
本稿では,ユーザが何をしようとしているのかを推測するために,Analogical Theory of Mindを用いたロボットを提案する。
ユーザーが不確実か混乱している場合、ロボットはユーザーに説明を与える。
論文 参考訳(メタデータ) (2020-12-05T00:18:43Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z) - Towards Transparent Robotic Planning via Contrastive Explanations [1.7231251035416644]
我々はマルコフ決定プロセスに基づくロボット計画政策の対照的な説明概念を定式化する。
本稿では, 選択性, 拘束性, 責任の3つの要因を伴って, 矛盾説明の自動生成手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T19:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。