論文の概要: Value Explicit Pretraining for Goal-Based Transfer Learning
- arxiv url: http://arxiv.org/abs/2312.12339v1
- Date: Tue, 19 Dec 2023 17:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 14:53:10.612288
- Title: Value Explicit Pretraining for Goal-Based Transfer Learning
- Title(参考訳): ゴールベース移行学習のための値明示型事前学習
- Authors: Kiran Lekkala, Henghui Bao, Sumedh Sontakke, Laurent Itti
- Abstract要約: そこで本研究では,最終フレームが目標に対応する一連の観測結果から,値関数の推定値に基づいてタスクに依存しない表現を学習する手法を提案する。
これらの表現は、外見の変化やダイナミクスに関係なく、時間的距離と目標状態とに基づいて、異なるタスクをまたいだ状態を関連付けることを学習する。
- 参考スコア(独自算出の注目度): 11.069853883599102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method that allows for learning task-agnostic representations
based on value function estimates from a sequence of observations where the
last frame corresponds to a goal. These representations would learn to relate
states across different tasks, based on the temporal distance to the goal
state, irrespective of the appearance changes and dynamics. This method could
be used to transfer learnt policies/skills to unseen related tasks.
- Abstract(参考訳): 本稿では,最終フレームが目標に対応する一連の観測から,価値関数推定に基づいてタスクに依存しない表現を学習する手法を提案する。
これらの表現は、外見の変化やダイナミクスに関係なく、時間的距離と目標状態に基づいて、異なるタスクをまたいだ状態を関連付けることを学習する。
この方法は、学習ポリシー/スキルを未認識の関連タスクに移すのに使うことができる。
関連論文リスト
- Vision Language Models are In-Context Value Learners [89.29486557646624]
本稿では、視覚言語モデル(VLM)に埋め込まれた世界的知識を活用してタスクの進捗を予測する普遍的価値関数推定器である生成価値学習(GVL)を提案する。
ロボットやタスク固有のトレーニングがなければ、GVLは300以上の異なる現実世界のタスクに対して、ゼロショットと数ショットの効果的な値をインコンテキストで予測することができる。
論文 参考訳(メタデータ) (2024-11-07T09:17:50Z) - Pre-trained Visual Dynamics Representations for Efficient Policy Learning [33.62440075940917]
本稿では,ビデオと下流タスク間の領域ギャップを埋めて効率的なポリシー学習を実現するために,事前学習型ビジュアルダイナミクス表現(PVDR)を提案する。
事前訓練された視覚力学表現は、ビデオの知識以前の視覚力学をキャプチャする。
この抽象的な事前知識は、ダウンストリームタスクに容易に適応でき、オンライン適応を通じて実行可能なアクションと整合することができる。
論文 参考訳(メタデータ) (2024-11-05T15:18:02Z) - Investigating Pre-Training Objectives for Generalization in Vision-Based Reinforcement Learning [41.1883663165909]
Atari-PB(Atari-PB)は,50ゲームから1000万の移行に対して,ResNet-50モデルを事前トレーニングするベンチマークである。
本実験は,タスク非依存の特徴を学習することに焦点を当てた事前学習目標が,様々な環境における一般化を促進することを示す。
対照的に、タスク固有の知識の学習に焦点を当てた目的は、事前学習データセットと同様の環境におけるパフォーマンスを改善するが、様々なものではない。
論文 参考訳(メタデータ) (2024-06-10T06:06:38Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Pretraining the Vision Transformer using self-supervised methods for
vision based Deep Reinforcement Learning [0.0]
いくつかの最先端の自己教師型手法を用いて視覚変換器の事前学習を行い、学習した表現の質を評価する。
その結果,すべての手法が有用な表現を学習し,表現の崩壊を避けるのに有効であることが示唆された。
時間順序検証タスクで事前訓練されたエンコーダは、すべての実験で最高の結果を示す。
論文 参考訳(メタデータ) (2022-09-22T10:18:59Z) - Reinforcement Learning with Action-Free Pre-Training from Videos [95.25074614579646]
本稿では,ビデオにおける生成前学習を通じて動的理解に役立つ表現を学習するフレームワークを提案する。
我々のフレームワークは、視覚に基づく強化学習の最終性能とサンプル効率の両方を著しく改善する。
論文 参考訳(メタデータ) (2022-03-25T19:44:09Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。