論文の概要: Machine versus Human Attention in Deep Reinforcement Learning Tasks
- arxiv url: http://arxiv.org/abs/2010.15942v3
- Date: Tue, 2 Nov 2021 23:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 22:28:23.751038
- Title: Machine versus Human Attention in Deep Reinforcement Learning Tasks
- Title(参考訳): 深層強化学習課題における機械対人間の注意
- Authors: Sihang Guo, Ruohan Zhang, Bo Liu, Yifeng Zhu, Mary Hayhoe, Dana
Ballard, Peter Stone
- Abstract要約: タスク実行中の画素を解析することで、そのような訓練されたモデルの内面動作に光を当てた。
我々は,アタリゲームを学習する際,RLエージェントのサリエンシマップと,人間の専門家の視覚的注意モデルを比較した。
- 参考スコア(独自算出の注目度): 38.80270891345248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep reinforcement learning (RL) algorithms are powerful tools for solving
visuomotor decision tasks. However, the trained models are often difficult to
interpret, because they are represented as end-to-end deep neural networks. In
this paper, we shed light on the inner workings of such trained models by
analyzing the pixels that they attend to during task execution, and comparing
them with the pixels attended to by humans executing the same tasks. To this
end, we investigate the following two questions that, to the best of our
knowledge, have not been previously studied. 1) How similar are the visual
representations learned by RL agents and humans when performing the same task?
and, 2) How do similarities and differences in these learned representations
explain RL agents' performance on these tasks? Specifically, we compare the
saliency maps of RL agents against visual attention models of human experts
when learning to play Atari games. Further, we analyze how hyperparameters of
the deep RL algorithm affect the learned representations and saliency maps of
the trained agents. The insights provided have the potential to inform novel
algorithms for closing the performance gap between human experts and RL agents.
- Abstract(参考訳): 深部強化学習(Deep reinforcement learning, RL)アルゴリズムは、ビジュモータ決定タスクを解決する強力なツールである。
しかし、訓練されたモデルはエンドツーエンドのディープニューラルネットワークとして表現されるため、解釈が難しいことが多い。
本稿では,タスク実行中に出席する画素を解析し,同じタスクを実行する人間が出席する画素と比較することにより,そのような訓練されたモデルの内面動作について光を当てる。
この目的のために,これまでの知識の最良のところ,これまで研究されていなかった2つの質問を考察する。
1)同じ作業を行う際にRLエージェントや人間によって学習される視覚的表現はどの程度似ているか。
そして
2)これらの学習表現における類似性と相違は,これらのタスクにおけるrlエージェントのパフォーマンスを如何に説明できるのか?
具体的には,アタリゲームを学習する際,RLエージェントのサリエンシマップと,人間の専門家の視覚的注意モデルを比較した。
さらに、深部RLアルゴリズムのハイパーパラメータが、訓練されたエージェントの学習された表現と正当性マップに与える影響を分析する。
提供された洞察は、人間の専門家とRLエージェントのパフォーマンスギャップを埋めるための新しいアルゴリズムを知らせる可能性がある。
関連論文リスト
- Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - RLInspect: An Interactive Visual Approach to Assess Reinforcement Learning Algorithm [0.0]
強化学習(Reinforcement Learning, RL)は、機械学習の急速に成長する分野である。
RLモデルを評価することは困難であり、その振る舞いを理解するのが難しくなる。
我々はインタラクティブな視覚分析ツールであるRLInspectを開発した。
RLモデルのさまざまなコンポーネント - 状態、アクション、エージェントアーキテクチャ、報酬 - を考慮しており、RLトレーニングのより包括的なビューを提供する。
論文 参考訳(メタデータ) (2024-11-13T07:24:14Z) - Diagnosing and exploiting the computational demands of videos games for
deep reinforcement learning [13.98405611352641]
本稿では,タスクの知覚的および強化的学習要求を測定するツールであるLearning Challenge Diagnosticator (LCD)を紹介する。
我々はLCDを用いて、Procgenベンチマークの新たな課題の分類を発見し、これらの予測が信頼性が高く、アルゴリズム開発を指導できることを示す。
論文 参考訳(メタデータ) (2023-09-22T21:03:33Z) - Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Int-HRL: Towards Intention-based Hierarchical Reinforcement Learning [23.062590084580542]
Int-HRL:人間の視線から推測される意図に基づくサブゴールを持つ階層的RL。
本評価の結果,手作りサブゴールを自動抽出した意図で置き換えることにより,従来の方法よりもはるかに効率のよいHRLエージェントが得られることがわかった。
論文 参考訳(メタデータ) (2023-06-20T12:12:16Z) - Agent-Controller Representations: Principled Offline RL with Rich
Exogenous Information [49.06422815335159]
オフラインで収集したデータからエージェントを制御する学習は、実世界の強化学習(RL)の応用にとって不可欠である
本稿では,この問題を研究可能なオフラインRLベンチマークを提案する。
現代の表現学習技術は、ノイズが複雑で時間依存のプロセスであるデータセットで失敗する可能性がある。
論文 参考訳(メタデータ) (2022-10-31T22:12:48Z) - Contrastive Learning as Goal-Conditioned Reinforcement Learning [147.28638631734486]
強化学習(RL)では,優れた表現が与えられると,課題の解決が容易になる。
ディープRLはこのような優れた表現を自動的に取得する必要があるが、事前の作業では、エンドツーエンドの方法での学習表現が不安定であることが多い。
比較的)表現学習法は,RLアルゴリズムとして自己にキャスト可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T14:34:15Z) - Are Gradient-based Saliency Maps Useful in Deep Reinforcement Learning? [4.254099382808598]
Deep Reinforcement Learning (DRL)は、古典的なReinforcement LearningアルゴリズムとDeep Neural Networksを接続する。
DRLの問題は、CNNがブラックボックスであり、エージェントの意思決定プロセスを理解することは困難である。
この研究は、画像分類の分野からDeep Reinforcement Learningの分野まで、よく知られた視覚化手法をいくつかもたらす。
論文 参考訳(メタデータ) (2020-12-02T15:38:36Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。