論文の概要: Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2012.11792v2
- Date: Fri, 26 Feb 2021 03:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 03:49:23.694284
- Title: Are We On The Same Page? Hierarchical Explanation Generation for
Planning Tasks in Human-Robot Teaming using Reinforcement Learning
- Title(参考訳): 私たちは同じページにいますか?
強化学習を用いたロボットチームにおける計画課題の階層的説明生成
- Authors: Mehrdad Zakershahrak and Samira Ghodratnama
- Abstract要約: 我々は、エージェント生成の説明は、人間のチームメイトが受信者の認知負荷を維持するために望む詳細のレベルに合わせて抽象化されるべきであると主張します。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing explanations is considered an imperative ability for an AI agent in
a human-robot teaming framework. The right explanation provides the rationale
behind an AI agent's decision-making. However, to maintain the human teammate's
cognitive demand to comprehend the provided explanations, prior works have
focused on providing explanations in a specific order or intertwining the
explanation generation with plan execution. Moreover, these approaches do not
consider the degree of details required to share throughout the provided
explanations. In this work, we argue that the agent-generated explanations,
especially the complex ones, should be abstracted to be aligned with the level
of details the human teammate desires to maintain the recipient's cognitive
load. Therefore, learning a hierarchical explanations model is a challenging
task. Moreover, the agent needs to follow a consistent high-level policy to
transfer the learned teammate preferences to a new scenario while lower-level
detailed plans are different. Our evaluation confirmed the process of
understanding an explanation, especially a complex and detailed explanation, is
hierarchical. The human preference that reflected this aspect corresponded
exactly to creating and employing abstraction for knowledge assimilation hidden
deeper in our cognitive process. We showed that hierarchical explanations
achieved better task performance and behavior interpretability while reduced
cognitive load. These results shed light on designing explainable agents
utilizing reinforcement learning and planning across various domains.
- Abstract(参考訳): 説明を提供することは、人間ロボットのチームリングフレームワークにおけるAIエージェントにとって必須の能力であると考えられている。
正しい説明は、AIエージェントの意思決定の背後にある根拠を提供する。
しかしながら、提供された説明を理解するための人間のチームメイトの認知的要求を維持するために、先行研究は、説明を特定の順序で提供したり、説明の生成と計画実行の間を行き来することに焦点を当ててきた。
さらに、これらのアプローチは、提供された説明を通じて共有するために必要な詳細の度合いを考慮していない。
本研究では,エージェントが生成する説明,特に複雑な説明は,受取人の認知負荷を維持したい人間のチームメートが望む詳細レベルに合致するように抽象化されるべきである。
したがって、階層的説明モデルを学ぶことは難しい課題である。
さらに、エージェントは学習したチームメイトの好みを新しいシナリオに移すための一貫性のある高レベルなポリシーに従う必要があります。
本評価では,説明の理解過程,特に複雑かつ詳細な説明が階層的であることを確認した。
この側面を反映した人間の嗜好は、認知過程の奥深くに隠された知識同化のための抽象概念の作成と活用と正確に一致する。
階層的な説明は, 認知負荷を低減しつつ, 作業性能と行動解釈性を向上することを示した。
これらの結果は,様々な領域にわたる強化学習と計画を活用した説明可能なエージェントの設計に光を当てた。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Closer Look at Reward Decomposition for High-Level Robotic
Explanations [18.019811754800767]
本稿では、報酬分解と抽象的な行動空間を組み合わせたQ-Map学習フレームワークを提案する。
本稿では,2つのロボットシナリオの定量的,定性的な分析を通じて,本フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T16:01:42Z) - GANterfactual-RL: Understanding Reinforcement Learning Agents'
Strategies through Visual Counterfactual Explanations [0.7874708385247353]
本稿では,RLエージェントの反実的説明を生成する手法を提案する。
本手法は完全にモデルに依存しないので,いくつかの計算量において,従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-24T15:29:43Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Tell me why! -- Explanations support learning of relational and causal
structure [24.434551113103105]
説明は人間の学習において重要な役割を担い、特にAIにとって大きな課題が残る分野においてである。
我々は、強化学習エージェントが説明の恩恵を受ける可能性があることを示す。
我々の結果は、説明からの学習が強力な原則であり、より堅牢で一般的な機械学習システムのトレーニングに有望な道筋を提供することを示唆している。
論文 参考訳(メタデータ) (2021-12-07T15:09:06Z) - What Did You Think Would Happen? Explaining Agent Behaviour Through
Intended Outcomes [30.056732656973637]
本稿では,意図した結果の概念に基づく強化学習の新たな説明方法を提案する。
これらの説明は、エージェントがそのアクションによって達成しようとしている結果を記述している。
従来の強化学習では,この性質のポストホックな説明のための一般的な手法は不可能であることを示す。
論文 参考訳(メタデータ) (2020-11-10T12:05:08Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Order Matters: Generating Progressive Explanations for Planning Tasks in
Human-Robot Teaming [11.35869940310993]
本稿では,説明文を複数の部分に分割して順次通信する場合に,説明文生成時の影響を調査することを目的とする。
我々はまず,スキャベンジャーハントドメインに対するアプローチを評価し,人間の嗜好を効果的に捉えることを実証した。
その結果,説明の理解過程は動的過程であるという仮説が得られた。
論文 参考訳(メタデータ) (2020-04-16T00:17:02Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。