論文の概要: Value Explicit Pretraining for Learning Transferable Representations
- arxiv url: http://arxiv.org/abs/2312.12339v2
- Date: Thu, 7 Mar 2024 10:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:15:54.215108
- Title: Value Explicit Pretraining for Learning Transferable Representations
- Title(参考訳): 伝達可能表現の学習のための値明示的事前学習
- Authors: Kiran Lekkala, Henghui Bao, Sumedh Sontakke, Laurent Itti
- Abstract要約: 本稿では,伝達強化学習のための一般化可能な表現を学習する手法を提案する。
我々は、目的条件付き表現のためのエンコーダを学習することで、前回学習したタスクと同様の目的を共有する新しいタスクを学ぶ。
現実的なナビゲーションシミュレータとAtariベンチマークを用いて実験したところ,本手法により生成された事前学習エンコーダは,現在のSoTA事前学習法より優れていることがわかった。
- 参考スコア(独自算出の注目度): 11.069853883599102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Value Explicit Pretraining (VEP), a method that learns
generalizable representations for transfer reinforcement learning. VEP enables
learning of new tasks that share similar objectives as previously learned
tasks, by learning an encoder for objective-conditioned representations,
irrespective of appearance changes and environment dynamics. To pre-train the
encoder from a sequence of observations, we use a self-supervised contrastive
loss that results in learning temporally smooth representations. VEP learns to
relate states across different tasks based on the Bellman return estimate that
is reflective of task progress. Experiments using a realistic navigation
simulator and Atari benchmark show that the pretrained encoder produced by our
method outperforms current SoTA pretraining methods on the ability to
generalize to unseen tasks. VEP achieves up to a 2 times improvement in rewards
on Atari and visual navigation, and up to a 3 times improvement in sample
efficiency. For videos of policy performance visit our
https://sites.google.com/view/value-explicit-pretraining/
- Abstract(参考訳): 本稿では,伝達強化学習のための一般化表現を学習する手法であるvalue explicit pretraining (vep)を提案する。
VEPは、外見の変化や環境動態によらず、目的条件付き表現のエンコーダを学習することで、以前学習したタスクと同じような目的を共有する新しいタスクの学習を可能にする。
エンコーダを一連の観測から事前学習するために、時間的に滑らかな表現を学習する自己教師付きコントラスト損失を用いる。
VEPは、タスクの進捗を反映したベルマン回帰推定に基づいて、さまざまなタスクの状態を関連付けることを学ぶ。
現実的なナビゲーションシミュレータとatariベンチマークを用いた実験により,本手法で生成したプリトレーニングエンコーダは,未認識のタスクに一般化する能力において,現在のsomaプリトレーニング手法よりも優れていることが示された。
VEPは、Atariとビジュアルナビゲーションの報酬を最大2倍改善し、サンプル効率を最大3倍改善する。
ポリシーパフォーマンスのビデオについては、https://sites.google.com/view/value-explicit-pretraining/
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Learning from Visual Observation via Offline Pretrained State-to-Go
Transformer [29.548242447584194]
視覚的観察から学ぶための2段階のフレームワークを提案する。
第1段階では、ステート・ツー・ゴー・トランスフォーマーをオフラインでトレーニングし、デモの遅延遷移を予測し、区別する。
第2段階では、STG Transformerは下流の強化学習タスクに固有の報酬を提供する。
論文 参考訳(メタデータ) (2023-06-22T13:14:59Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Pretraining the Vision Transformer using self-supervised methods for
vision based Deep Reinforcement Learning [0.0]
いくつかの最先端の自己教師型手法を用いて視覚変換器の事前学習を行い、学習した表現の質を評価する。
その結果,すべての手法が有用な表現を学習し,表現の崩壊を避けるのに有効であることが示唆された。
時間順序検証タスクで事前訓練されたエンコーダは、すべての実験で最高の結果を示す。
論文 参考訳(メタデータ) (2022-09-22T10:18:59Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。