論文の概要: Introspection-based Explainable Reinforcement Learning in Episodic and
Non-episodic Scenarios
- arxiv url: http://arxiv.org/abs/2211.12930v1
- Date: Wed, 23 Nov 2022 13:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:49:45.228526
- Title: Introspection-based Explainable Reinforcement Learning in Episodic and
Non-episodic Scenarios
- Title(参考訳): エピソード・非エピソードシナリオにおけるイントロスペクションに基づく説明可能な強化学習
- Authors: Niclas Schroeter, Francisco Cruz, Stefan Wermter
- Abstract要約: イントロスペクションベースのアプローチは、成功の確率を提供するために強化学習エージェントと併用することができる。
イントロスペクションに基づくアプローチは、非エポゾディックなロボティクス環境でもたらされた動作を説明するためにも使用できる。
- 参考スコア(独自算出の注目度): 14.863872352905629
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing presence of robotic systems and human-robot environments
in today's society, understanding the reasoning behind actions taken by a robot
is becoming more important. To increase this understanding, users are provided
with explanations as to why a specific action was taken. Among other effects,
these explanations improve the trust of users in their robotic partners. One
option for creating these explanations is an introspection-based approach which
can be used in conjunction with reinforcement learning agents to provide
probabilities of success. These can in turn be used to reason about the actions
taken by the agent in a human-understandable fashion. In this work, this
introspection-based approach is developed and evaluated further on the basis of
an episodic and a non-episodic robotics simulation task. Furthermore, an
additional normalization step to the Q-values is proposed, which enables the
usage of the introspection-based approach on negative and comparatively small
Q-values. Results obtained show the viability of introspection for episodic
robotics tasks and, additionally, that the introspection-based approach can be
used to generate explanations for the actions taken in a non-episodic robotics
environment as well.
- Abstract(参考訳): 現代社会におけるロボットシステムや人間ロボット環境の存在の増加に伴い、ロボットによる行動の背後にある理由を理解することがますます重要になっている。
この理解を深めるために、ユーザーは、なぜ特定のアクションが取られたのかの説明を提供する。
これらの説明は、ロボットパートナーのユーザの信頼度を向上させる。
これらの説明を作成するための選択肢の1つは、イントロスペクションに基づくアプローチであり、これは強化学習エージェントと組み合わせて、成功の確率を提供するために使用できる。
これらは、人間が理解可能な方法でエージェントが取る行為を推論するために使用できる。
本研究は, エピソディクスと非エピソジックロボットシミュレーションタスクに基づいて, このイントロスペクションに基づくアプローチを開発し, さらなる評価を行う。
さらに,負および相対的に小さいq値に対するイントロスペクションベースアプローチの利用を可能にする,q値に対する追加正規化ステップを提案する。
その結果, エピソジックロボットの課題に対するイントロスペクションの有効性が示され, また, イントロスペクションに基づくアプローチは, 非エピソジックロボット環境における行動の説明も生成できることがわかった。
関連論文リスト
- A Multi-Modal Explainability Approach for Human-Aware Robots in Multi-Party Conversation [39.87346821309096]
本稿では,従来のSOTAと比較して性能が向上したアドレス推定モデルを提案する。
また、上記のアーキテクチャに説明可能性と透明性を組み込むいくつかの方法を提案する。
論文 参考訳(メタデータ) (2024-05-20T13:09:32Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Causal Robot Communication Inspired by Observational Learning Insights [4.545201807506083]
本稿では,ロボットの意図的コミュニケーションにおける行動学習的洞察の関連性について論じる。
本稿では,ロボットが行動系列における因果的動作を選択的に説明することにより,その意図を効率的に伝達するための,これらの知見の最初の応用について述べる。
論文 参考訳(メタデータ) (2022-03-17T06:43:10Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Integrating Intrinsic and Extrinsic Explainability: The Relevance of
Understanding Neural Networks for Human-Robot Interaction [19.844084722919764]
説明可能な人工知能(XAI)は、インテリジェントで自律的なシステムの信頼と受容を促進するのに役立つ。
NICOは、オープンソースのヒューマノイドロボットプラットフォームであり、ロボット自身による本質的な説明と環境によって提供される外生的な説明の相互作用によって、効率的なロボット動作を実現する方法について紹介されている。
論文 参考訳(メタデータ) (2020-10-09T14:28:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。