論文の概要: Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model
- arxiv url: http://arxiv.org/abs/2110.03184v1
- Date: Thu, 7 Oct 2021 05:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-10-08 15:36:19.838980
- Title: Explaining Deep Reinforcement Learning Agents In The Atari Domain
through a Surrogate Model
- Title(参考訳): 代理モデルによる足理藩における深部強化学習エージェントの解説
- Authors: Alexander Sieusahai and Matthew Guzdial
- Abstract要約: 深部RLエージェントの説明を導出するための軽量で効果的な手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
- 参考スコア(独自算出の注目度): 78.69367679848632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One major barrier to applications of deep Reinforcement Learning (RL) both
inside and outside of games is the lack of explainability. In this paper, we
describe a lightweight and effective method to derive explanations for deep RL
agents, which we evaluate in the Atari domain. Our method relies on a
transformation of the pixel-based input of the RL agent to an interpretable,
percept-like input representation. We then train a surrogate model, which is
itself interpretable, to replicate the behavior of the target, deep RL agent.
Our experiments demonstrate that we can learn an effective surrogate that
accurately approximates the underlying decision making of a target agent on a
suite of Atari games.
- Abstract(参考訳): ゲーム内外での深層強化学習(RL)の応用における大きな障壁は、説明可能性の欠如である。
本稿では,atariドメインで評価した深層rlエージェントの説明を,軽量かつ効果的な方法で導出する手法について述べる。
提案手法は,RLエージェントの画素ベース入力から解釈可能な知覚的入力表現への変換に依存する。
次に、ターゲットの深いRLエージェントの挙動を再現するために、それ自身解釈可能な代理モデルを訓練する。
実験により,atariゲーム群において,ターゲットエージェントの意思決定を精度良く近似する効果的なサロゲートを学習できることを実証した。
関連論文リスト
- Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Agent-Controller Representations: Principled Offline RL with Rich
Exogenous Information [49.06422815335159]
オフラインで収集したデータからエージェントを制御する学習は、実世界の強化学習(RL)の応用にとって不可欠である
本稿では,この問題を研究可能なオフラインRLベンチマークを提案する。
現代の表現学習技術は、ノイズが複雑で時間依存のプロセスであるデータセットで失敗する可能性がある。
論文 参考訳(メタデータ) (2022-10-31T22:12:48Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Counterfactual State Explanations for Reinforcement Learning Agents via
Generative Deep Learning [27.67522513615264]
我々は,Atariのような視覚入力環境で機能する深層強化学習(RL)エージェントの対実的説明の作成に焦点をあてる。
生成的深層学習に基づく対実的説明に対する新しい例に基づくアプローチである、対実的状態説明を導入する。
以上の結果から,非専門家がより効果的に欠陥のあるRLエージェントを識別できるように,現実のゲームイメージに十分忠実な反ファクト状態説明が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-01-29T07:43:41Z) - Shielding Atari Games with Bounded Prescience [8.874011540975715]
アタリゲームにおけるDRLエージェントの安全性を分析し、確保するための最初の正確な方法を提示します。
まず、30ゲームのための「安全な行動」を特徴づける43のプロパティのセットを与えます。
第2に,エージェントとゲームによって引き起こされるすべてのトレースを探索する手法を開発した。
第3に,境界状態探索と遮蔽を組み合わせた対策を提案する。
論文 参考訳(メタデータ) (2021-01-20T14:22:04Z) - Self-Supervised Discovering of Interpretable Features for Reinforcement
Learning [40.52278913726904]
深層強化学習のための自己教師付き解釈可能なフレームワークを提案する。
タスク関連情報を強調するための細かな注意マスクを作成するために、自己教師型解釈ネットワーク(SSINet)が使用される。
Atari 2600とDuckietownは、自動運転車のシミュレータ環境として難易度の高い環境である。
論文 参考訳(メタデータ) (2020-03-16T08:26:17Z) - Learn to Interpret Atari Agents [106.21468537372995]
リージョン・センシティブ・レインボー(Rerea-sensitive Rainbow、RS-Rainbow)は、Qネットワークの強力なエージェントであるレインボーをベースとした、エンドツーエンドのトレーニング可能なネットワークである。
提案するエージェントは地域感応性レインボー (RS-Rainbow) と名付けられ, 強力なQネットワークエージェントであるレインボーをベースとしたエンド・ツー・エンドのトレーニング可能なネットワークである。
論文 参考訳(メタデータ) (2018-12-29T03:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。