論文の概要: Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2309.01458v1
- Date: Mon, 4 Sep 2023 09:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 19:13:48.886518
- Title: Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning
- Title(参考訳): 強化学習における特徴発見のための報酬一貫性の活用
- Authors: Qisen Yang, Huanqian Wang, Mukun Tong, Wenjie Shi, Gao Huang, Shiji
Song
- Abstract要約: 一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
- 参考スコア(独自算出の注目度): 69.19840497497503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The black-box nature of deep reinforcement learning (RL) hinders them from
real-world applications. Therefore, interpreting and explaining RL agents have
been active research topics in recent years. Existing methods for post-hoc
explanations usually adopt the action matching principle to enable an easy
understanding of vision-based RL agents. In this paper, it is argued that the
commonly used action matching principle is more like an explanation of deep
neural networks (DNNs) than the interpretation of RL agents. It may lead to
irrelevant or misplaced feature attribution when different DNNs' outputs lead
to the same rewards or different rewards result from the same outputs.
Therefore, we propose to consider rewards, the essential objective of RL
agents, as the essential objective of interpreting RL agents as well. To ensure
reward consistency during interpretable feature discovery, a novel framework
(RL interpreting RL, denoted as RL-in-RL) is proposed to solve the gradient
disconnection from actions to rewards. We verify and evaluate our method on the
Atari 2600 games as well as Duckietown, a challenging self-driving car
simulator environment. The results show that our method manages to keep reward
(or return) consistency and achieves high-quality feature attribution. Further,
a series of analytical experiments validate our assumption of the action
matching principle's limitations.
- Abstract(参考訳): 深層強化学習(rl)のブラックボックスの性質は、現実世界の応用を妨げる。
そのため,近年,rlエージェントの解釈と解説が活発に研究されている。
ポストホックな説明のための既存の方法は通常、視覚に基づくRLエージェントの理解を容易にするためにアクションマッチング原理を採用する。
本稿では、一般的なアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じる。
異なるDNNのアウトプットが同じ報酬または同じアウトプットから異なる報酬をもたらす場合、これは無関係または誤った特徴属性をもたらす可能性がある。
そこで本研究では,RLエージェントの主目的である報酬を,RLエージェントを解釈するための本質的な目的として考察する。
解釈可能な特徴発見における報酬の整合性を確保するため,新たなフレームワーク(RL-in-RL,RL-in-RL)を提案する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
その結果,報奨(あるいは返却)の一貫性を維持し,高品質な機能帰属を実現することができた。
さらに、一連の分析実験により、行動整合原理の限界の仮定が検証される。
関連論文リスト
- Semifactual Explanations for Reinforcement Learning [1.5320737596132754]
強化学習(Reinforcement Learning、RL)は、エージェントが試行錯誤を通じて環境から学習する学習パラダイムである。
ディープ強化学習(DRL)アルゴリズムは、ニューラルネットワークを使用してエージェントのポリシーを表現し、その決定を解釈しにくくする。
DRLエージェントの動作を説明するには,ユーザの信頼を向上し,エンゲージメントを高め,実際のタスクとの統合を容易にする必要がある。
論文 参考訳(メタデータ) (2024-09-09T08:37:47Z) - Survival Instinct in Offline Reinforcement Learning [28.319886852612672]
報酬ラベルをトレーニングしても、オフラインのRLは最適で安全なポリシを生成することができる。
この驚くべき性質は、オフラインRLアルゴリズムにおける悲観的概念と、一般的なデータ収集手法におけるある種の暗黙的偏見の相互作用に起因することを実証する。
我々の経験的および理論的結果は、エージェントが不完全な報酬を伴う望ましい行動を学ぶために、不完全なデータカバレッジを意図的にバイアスするRLの新しいパラダイムを示唆している。
論文 参考訳(メタデータ) (2023-06-05T22:15:39Z) - RACCER: Towards Reachable and Certain Counterfactual Explanations for
Reinforcement Learning [2.0341936392563063]
本稿では,RLエージェントの動作に対する反実的説明を生成するための,RACCERを提案する。
木探索を用いて、定義された特性に基づいて最も適切なカウンターファクトを見つける。
我々はRACCERを2つのタスクで評価し、また、RL固有の対策がエージェントの行動をよりよく理解するのに役立つことを示す。
論文 参考訳(メタデータ) (2023-03-08T09:47:00Z) - A Survey on Explainable Reinforcement Learning: Concepts, Algorithms,
Challenges [38.70863329476517]
強化学習(Reinforcement Learning, RL)は、インテリジェントエージェントが環境と対話して長期的な目標を達成する、一般的な機械学習パラダイムである。
励ましの結果にもかかわらず、ディープニューラルネットワークベースのバックボーンは、専門家が高いセキュリティと信頼性が不可欠である現実的なシナリオにおいて、訓練されたエージェントを信頼し、採用することを妨げるブラックボックスとして広く見なされている。
この問題を緩和するために、本質的な解釈可能性やポストホックな説明可能性を構築することにより、知的エージェントの内部動作に光を放つための大量の文献が提案されている。
論文 参考訳(メタデータ) (2022-11-12T13:52:06Z) - Contrastive Learning as Goal-Conditioned Reinforcement Learning [147.28638631734486]
強化学習(RL)では,優れた表現が与えられると,課題の解決が容易になる。
ディープRLはこのような優れた表現を自動的に取得する必要があるが、事前の作業では、エンドツーエンドの方法での学習表現が不安定であることが多い。
比較的)表現学習法は,RLアルゴリズムとして自己にキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T14:34:15Z) - Reward Uncertainty for Exploration in Preference-based Reinforcement
Learning [88.34958680436552]
好みに基づく強化学習アルゴリズムを対象とした探索手法を提案する。
我々の基本的な考え方は、学習した報酬に基づいて、斬新さを測定することによって、本質的な報酬を設計することである。
実験により、学習報酬の不確実性からの探索ボーナスは、好みに基づくRLアルゴリズムのフィードバック効率とサンプル効率の両方を改善することが示された。
論文 参考訳(メタデータ) (2022-05-24T23:22:10Z) - Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model [78.69367679848632]
深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
論文 参考訳(メタデータ) (2021-10-07T05:01:44Z) - Decoupling Exploration and Exploitation in Reinforcement Learning [8.946655323517092]
本稿では、探索と搾取のための個別の政策を訓練するDecoupled RL(DeRL)を提案する。
複数種類の内因性報酬を持つ2つのスパース・リワード環境におけるDeRLアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2021-07-19T15:31:02Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Maximizing Information Gain in Partially Observable Environments via
Prediction Reward [64.24528565312463]
本稿では,深いRLエージェントに対する信念に基づく報酬の活用という課題に取り組む。
負のエントロピーと予測される予測報酬の正確な誤差を導出する。
この洞察は、予測報酬を用いたいくつかの分野の理論的動機を与える。
論文 参考訳(メタデータ) (2020-05-11T08:13:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。