論文の概要: Comparing Auxiliary Tasks for Learning Representations for Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2310.04241v1
- Date: Fri, 6 Oct 2023 13:22:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 16:19:00.937227
- Title: Comparing Auxiliary Tasks for Learning Representations for Reinforcement
Learning
- Title(参考訳): 強化学習のための学習表現のための補助タスクの比較
- Authors: Moritz Lange, Noah Krystiniak, Raphael C. Engelhardt, Wolfgang Konen,
Laurenz Wiskott
- Abstract要約: 本稿では、最先端のオフポリチィRLアルゴリズムで訓練された数百のエージェントに基づいて、一般的な補助的タスクの比較を行う。
補助課題による表現学習は,高次元・複雑環境において有益であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning state representations has gained steady popularity in reinforcement
learning (RL) due to its potential to improve both sample efficiency and
returns on many environments. A straightforward and efficient method is to
generate representations with a distinct neural network trained on an auxiliary
task, i.e. a task that differs from the actual RL task. While a whole range of
such auxiliary tasks has been proposed in the literature, a comparison on
typical continuous control benchmark environments is computationally expensive
and has, to the best of our knowledge, not been performed before. This paper
presents such a comparison of common auxiliary tasks, based on hundreds of
agents trained with state-of-the-art off-policy RL algorithms. We compare
possible improvements in both sample efficiency and returns for environments
ranging from simple pendulum to a complex simulated robotics task. Our findings
show that representation learning with auxiliary tasks is beneficial for
environments of higher dimension and complexity, and that learning environment
dynamics is preferable to predicting rewards. We believe these insights will
enable other researchers to make more informed decisions on how to utilize
representation learning for their specific problem.
- Abstract(参考訳): 学習状態表現は、サンプル効率と多くの環境におけるリターンの両方を改善する可能性から、強化学習(RL)において着実に人気を集めている。
単純で効率的な方法は、補助的なタスク、すなわち実際のRLタスクとは異なるタスクで訓練された異なるニューラルネットワークで表現を生成することである。
このような補助的なタスクが文献で提案されているが、典型的な連続制御ベンチマーク環境の比較は計算に高価であり、我々の知る限り、これまで行われていなかった。
本稿では,最先端のオフ・ポリシーrlアルゴリズムを用いて訓練された何百ものエージェントをもとに,共通の補助タスクの比較を行う。
我々は,単純な振り子から複雑なシミュレーションロボットタスクまで,サンプル効率とリターンの両立を比較検討した。
その結果,補助タスクによる表現学習は高次元・複雑環境に有益であり,学習環境のダイナミクスは報酬予測に好適であることがわかった。
これらの知見は、他の研究者が、表現学習を特定の問題にどのように活用するかについて、より深い決定を下すことができると考えている。
関連論文リスト
- DEAR: Disentangled Environment and Agent Representations for Reinforcement Learning without Reconstruction [4.813546138483559]
強化学習(RL)アルゴリズムは視覚的な観察からロボット制御タスクを学習することができるが、大量のデータを必要とすることが多い。
本稿では,その形状に関するエージェントの知識が,視覚的RL法のサンプル効率を向上させる方法について検討する。
本稿では,エージェントのセグメンテーションマスクを監督対象とする,分散環境とエージェント表現という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-30T09:15:21Z) - Learning Future Representation with Synthetic Observations for Sample-efficient Reinforcement Learning [12.277005054008017]
視覚強化学習(RL)では、上流表現学習が下流政策学習の効果を決定づける。
補助訓練データを充実させることで,RLの補助表現学習を改善する。
本研究では、将来の情報を含む可能性のある観測を合成するためのトレーニング不要な手法を提案する。
残りの合成観測と実観測は、クラスタリングに基づく時間的関連タスクを達成する補助データとして機能する。
論文 参考訳(メタデータ) (2024-05-20T02:43:04Z) - Sequential Action-Induced Invariant Representation for Reinforcement
Learning [1.2046159151610263]
視覚的障害を伴う高次元観察からタスク関連状態表現を正確に学習する方法は、視覚的強化学習において難しい問題である。
本稿では,逐次動作の制御信号に従うコンポーネントのみを保持するために,補助学習者によってエンコーダを最適化した逐次行動誘発不変表現(SAR)法を提案する。
論文 参考訳(メタデータ) (2023-09-22T05:31:55Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Learning Task-relevant Representations for Generalization via
Characteristic Functions of Reward Sequence Distributions [63.773813221460614]
同じタスクで異なる環境にまたがる一般化は、視覚的強化学習の成功に不可欠である。
本稿では,タスク関連情報を抽出する手法として,特徴逆列予測(CRESP)を提案する。
実験により、CRESPは目に見えない環境での一般化性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-05-20T14:52:03Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Task-Induced Representation Learning [14.095897879222672]
視覚的に複雑な環境における意思決定における表現学習手法の有効性を評価する。
表現学習は、視覚的に複雑なシーンであっても、目に見えないタスクのサンプル効率を向上する。
論文 参考訳(メタデータ) (2022-04-25T17:57:10Z) - Exploratory State Representation Learning [63.942632088208505]
本稿では,XSRL(eXploratory State Representation Learning)と呼ばれる新しい手法を提案する。
一方、コンパクトな状態表現と、その表現から不可解な情報を除去するために使用される状態遷移推定器を共同で学習する。
一方、逆モデルを継続的に訓練し、このモデルの予測誤差に$k$-stepの学習促進ボーナスを加え、発見ポリシーの目的を形成する。
論文 参考訳(メタデータ) (2021-09-28T10:11:07Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Reinforcement Learning with Prototypical Representations [114.35801511501639]
Proto-RLは、プロトタイプ表現を通じて表現学習と探索を結び付ける自己監督型フレームワークである。
これらのプロトタイプは、エージェントの探索経験の要約と同時に、観察を表す基盤としても機能する。
これにより、困難な連続制御タスクのセットで最新の下流ポリシー学習が可能になります。
論文 参考訳(メタデータ) (2021-02-22T18:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。