論文の概要: Self-Predictive Dynamics for Generalization of Vision-based Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2506.05418v1
- Date: Thu, 05 Jun 2025 00:36:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.145134
- Title: Self-Predictive Dynamics for Generalization of Vision-based Reinforcement Learning
- Title(参考訳): 視覚に基づく強化学習の一般化のための自己予測ダイナミクス
- Authors: Kyungsoo Kim, Jeongsoo Ha, Yusung Kim,
- Abstract要約: 視覚に基づく強化学習は、画像に基づく観察の効率的で堅牢な表現を必要とする。
本研究では,タスク関連特徴を効率的に抽出する自己予測ダイナミクス(SPD)を設計する。
MuJoCo視覚制御タスクと自律運転タスク(CARLA)のセットでは、SPDは複雑な観察において過去の研究よりも優れていた。
- 参考スコア(独自算出の注目度): 14.137070712516005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-based reinforcement learning requires efficient and robust representations of image-based observations, especially when the images contain distracting (task-irrelevant) elements such as shadows, clouds, and light. It becomes more important if those distractions are not exposed during training. We design a Self-Predictive Dynamics (SPD) method to extract task-relevant features efficiently, even in unseen observations after training. SPD uses weak and strong augmentations in parallel, and learns representations by predicting inverse and forward transitions across the two-way augmented versions. In a set of MuJoCo visual control tasks and an autonomous driving task (CARLA), SPD outperforms previous studies in complex observations, and significantly improves the generalization performance for unseen observations. Our code is available at https://github.com/unigary/SPD.
- Abstract(参考訳): 視覚に基づく強化学習は、特に影、雲、光といった(タスクに関係のない)要素を含む場合、画像に基づく観察の効率的で堅牢な表現を必要とする。
トレーニング中にこれらの気晴らしが露出しなければ、より重要になる。
本研究では,学習後の観察においても,タスク関連特徴を効率的に抽出する自己予測ダイナミクス(SPD)法を設計する。
SPDは弱い拡張と強い拡張を並列に使用し、双方向拡張バージョンにおける逆および前方遷移を予測することによって表現を学習する。
MuJoCo視覚制御タスクと自律運転タスク(CARLA)のセットでは、SPDは複雑な観察における過去の研究よりも優れており、目に見えない観察に対する一般化性能を大幅に向上させる。
私たちのコードはhttps://github.com/unigary/SPD.comで利用可能です。
関連論文リスト
- Intrinsic Dynamics-Driven Generalizable Scene Representations for Vision-Oriented Decision-Making Applications [0.21051221444478305]
シーン表現の能力をいかに向上させるかは、ビジョン指向の意思決定アプリケーションにおいて重要な問題である。
視覚強化学習におけるシーケンスモデルを用いた固有ダイナミクス駆動表現学習法を提案する。
論文 参考訳(メタデータ) (2024-05-30T06:31:03Z) - Premier-TACO is a Few-Shot Policy Learner: Pretraining Multitask Representation via Temporal Action-Driven Contrastive Loss [61.355272240758]
Premier-TACOはマルチタスクの特徴表現学習手法である。
シーケンシャルな意思決定タスクにおいて、数ショットのポリシー学習効率を改善するように設計されている。
論文 参考訳(メタデータ) (2024-02-09T05:04:40Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Top-Down Visual Attention from Analysis by Synthesis [87.47527557366593]
我々は、古典的分析・合成(AbS)の視覚的視点からトップダウンの注意を考察する。
本稿では,AbSを変動的に近似したトップダウン変調ViTモデルであるAbSViT(Analytic-by-Synthesis Vision Transformer)を提案する。
論文 参考訳(メタデータ) (2023-03-23T05:17:05Z) - Pretraining the Vision Transformer using self-supervised methods for
vision based Deep Reinforcement Learning [0.0]
いくつかの最先端の自己教師型手法を用いて視覚変換器の事前学習を行い、学習した表現の質を評価する。
その結果,すべての手法が有用な表現を学習し,表現の崩壊を避けるのに有効であることが示唆された。
時間順序検証タスクで事前訓練されたエンコーダは、すべての実験で最高の結果を示す。
論文 参考訳(メタデータ) (2022-09-22T10:18:59Z) - Learning Task-relevant Representations for Generalization via
Characteristic Functions of Reward Sequence Distributions [63.773813221460614]
同じタスクで異なる環境にまたがる一般化は、視覚的強化学習の成功に不可欠である。
本稿では,タスク関連情報を抽出する手法として,特徴逆列予測(CRESP)を提案する。
実験により、CRESPは目に見えない環境での一般化性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-05-20T14:52:03Z) - Offline Visual Representation Learning for Embodied Navigation [50.442660137987275]
自己教師付き学習による視覚表現のオフライン事前学習(SSL)
長期学習スケジュール下での画像強調による特定のタスクにおけるビジュモータ表現のオンライン微調整
論文 参考訳(メタデータ) (2022-04-27T23:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。