論文の概要: Value Explicit Pretraining for Learning Transferable Representations
- arxiv url: http://arxiv.org/abs/2312.12339v2
- Date: Thu, 7 Mar 2024 10:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 17:15:54.215108
- Title: Value Explicit Pretraining for Learning Transferable Representations
- Title(参考訳): 伝達可能表現の学習のための値明示的事前学習
- Authors: Kiran Lekkala, Henghui Bao, Sumedh Sontakke, Laurent Itti
- Abstract要約: 本稿では,伝達強化学習のための一般化可能な表現を学習する手法を提案する。
我々は、目的条件付き表現のためのエンコーダを学習することで、前回学習したタスクと同様の目的を共有する新しいタスクを学ぶ。
現実的なナビゲーションシミュレータとAtariベンチマークを用いて実験したところ,本手法により生成された事前学習エンコーダは,現在のSoTA事前学習法より優れていることがわかった。
- 参考スコア(独自算出の注目度): 11.069853883599102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Value Explicit Pretraining (VEP), a method that learns
generalizable representations for transfer reinforcement learning. VEP enables
learning of new tasks that share similar objectives as previously learned
tasks, by learning an encoder for objective-conditioned representations,
irrespective of appearance changes and environment dynamics. To pre-train the
encoder from a sequence of observations, we use a self-supervised contrastive
loss that results in learning temporally smooth representations. VEP learns to
relate states across different tasks based on the Bellman return estimate that
is reflective of task progress. Experiments using a realistic navigation
simulator and Atari benchmark show that the pretrained encoder produced by our
method outperforms current SoTA pretraining methods on the ability to
generalize to unseen tasks. VEP achieves up to a 2 times improvement in rewards
on Atari and visual navigation, and up to a 3 times improvement in sample
efficiency. For videos of policy performance visit our
https://sites.google.com/view/value-explicit-pretraining/
- Abstract(参考訳): 本稿では,伝達強化学習のための一般化表現を学習する手法であるvalue explicit pretraining (vep)を提案する。
VEPは、外見の変化や環境動態によらず、目的条件付き表現のエンコーダを学習することで、以前学習したタスクと同じような目的を共有する新しいタスクの学習を可能にする。
エンコーダを一連の観測から事前学習するために、時間的に滑らかな表現を学習する自己教師付きコントラスト損失を用いる。
VEPは、タスクの進捗を反映したベルマン回帰推定に基づいて、さまざまなタスクの状態を関連付けることを学ぶ。
現実的なナビゲーションシミュレータとatariベンチマークを用いた実験により,本手法で生成したプリトレーニングエンコーダは,未認識のタスクに一般化する能力において,現在のsomaプリトレーニング手法よりも優れていることが示された。
VEPは、Atariとビジュアルナビゲーションの報酬を最大2倍改善し、サンプル効率を最大3倍改善する。
ポリシーパフォーマンスのビデオについては、https://sites.google.com/view/value-explicit-pretraining/
関連論文リスト
- Vision Language Models are In-Context Value Learners [89.29486557646624]
本稿では、視覚言語モデル(VLM)に埋め込まれた世界的知識を活用してタスクの進捗を予測する普遍的価値関数推定器である生成価値学習(GVL)を提案する。
ロボットやタスク固有のトレーニングがなければ、GVLは300以上の異なる現実世界のタスクに対して、ゼロショットと数ショットの効果的な値をインコンテキストで予測することができる。
論文 参考訳(メタデータ) (2024-11-07T09:17:50Z) - Pre-trained Visual Dynamics Representations for Efficient Policy Learning [33.62440075940917]
本稿では,ビデオと下流タスク間の領域ギャップを埋めて効率的なポリシー学習を実現するために,事前学習型ビジュアルダイナミクス表現(PVDR)を提案する。
事前訓練された視覚力学表現は、ビデオの知識以前の視覚力学をキャプチャする。
この抽象的な事前知識は、ダウンストリームタスクに容易に適応でき、オンライン適応を通じて実行可能なアクションと整合することができる。
論文 参考訳(メタデータ) (2024-11-05T15:18:02Z) - Investigating Pre-Training Objectives for Generalization in Vision-Based Reinforcement Learning [41.1883663165909]
Atari-PB(Atari-PB)は,50ゲームから1000万の移行に対して,ResNet-50モデルを事前トレーニングするベンチマークである。
本実験は,タスク非依存の特徴を学習することに焦点を当てた事前学習目標が,様々な環境における一般化を促進することを示す。
対照的に、タスク固有の知識の学習に焦点を当てた目的は、事前学習データセットと同様の環境におけるパフォーマンスを改善するが、様々なものではない。
論文 参考訳(メタデータ) (2024-06-10T06:06:38Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Pretraining the Vision Transformer using self-supervised methods for
vision based Deep Reinforcement Learning [0.0]
いくつかの最先端の自己教師型手法を用いて視覚変換器の事前学習を行い、学習した表現の質を評価する。
その結果,すべての手法が有用な表現を学習し,表現の崩壊を避けるのに有効であることが示唆された。
時間順序検証タスクで事前訓練されたエンコーダは、すべての実験で最高の結果を示す。
論文 参考訳(メタデータ) (2022-09-22T10:18:59Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。