論文の概要: R2-Dreamer: Redundancy-Reduced World Models without Decoders or Augmentation
- arxiv url: http://arxiv.org/abs/2603.18202v1
- Date: Wed, 18 Mar 2026 18:54:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.813499
- Title: R2-Dreamer: Redundancy-Reduced World Models without Decoders or Augmentation
- Title(参考訳): R2-Dreamer:デコーダや拡張を使わずに冗長に再現された世界モデル
- Authors: Naoki Morihira, Amal Nahar, Kartik Bharadwaj, Yasuhiro Kato, Akinobu Hayashi, Tatsuya Harada,
- Abstract要約: 本稿では,自己指導型のモデルベース強化学習フレームワークであるR2-Dreamerを提案する。
DeepMind Control SuiteとMeta-Worldでは、R2-DreamerはDreamerV3やTD-MPC2のような強力なベースラインと競合し、DreamerV3よりも1.59倍高速でトレーニングし、小さなタスク関連オブジェクトでDMC-Subtleでかなりの利益を得ている。
- 参考スコア(独自算出の注目度): 32.7615698334388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A central challenge in image-based Model-Based Reinforcement Learning (MBRL) is to learn representations that distill essential information from irrelevant visual details. While promising, reconstruction-based methods often waste capacity on large task-irrelevant regions. Decoder-free methods instead learn robust representations by leveraging Data Augmentation (DA), but reliance on such external regularizers limits versatility. We propose R2-Dreamer, a decoder-free MBRL framework with a self-supervised objective that serves as an internal regularizer, preventing representation collapse without resorting to DA. The core of our method is a redundancy-reduction objective inspired by Barlow Twins, which can be easily integrated into existing frameworks. On DeepMind Control Suite and Meta-World, R2-Dreamer is competitive with strong baselines such as DreamerV3 and TD-MPC2 while training 1.59x faster than DreamerV3, and yields substantial gains on DMC-Subtle with tiny task-relevant objects. These results suggest that an effective internal regularizer can enable versatile, high-performance decoder-free MBRL. Code is available at https://github.com/NM512/r2dreamer.
- Abstract(参考訳): 画像に基づくモデルベース強化学習(MBRL)における中心的な課題は、無関係な視覚的詳細から本質的な情報を抽出する表現を学習することである。
有望ではあるが、大規模なタスク関連領域では、リコンストラクションベースの手法がキャパシティを浪費することが多い。
デコーダフリーのメソッドはデータ拡張(DA)を利用して堅牢な表現を学習するが、そのような外部正規化器に依存しているため、汎用性は制限される。
R2-DreamerはデコーダフリーのMBRLフレームワークで、内部正規化器として機能し、DAを使わずに表現の崩壊を防止する。
提案手法のコアはBarlow Twinsにインスパイアされた冗長性推論の目的であり,既存のフレームワークに容易に組み込むことができる。
DeepMind Control SuiteとMeta-Worldでは、R2-DreamerはDreamerV3やTD-MPC2のような強力なベースラインと競合し、DreamerV3よりも1.59倍高速でトレーニングし、小さなタスク関連オブジェクトでDMC-Subtleでかなりの利益を得ている。
これらの結果から,効率の良い内部正規化器により,汎用的で高性能なデコーダフリーMBRLが実現可能であることが示唆された。
コードはhttps://github.com/NM512/r2dreamer.comで入手できる。
関連論文リスト
- Next Embedding Prediction Makes World Models Stronger [9.30425021795895]
本稿では,デコーダフリーモデルベース強化学習エージェントNE-Dreamerを紹介する。
我々は、時間変換器を用いて、潜時状態列からの次のステップエンコーダ埋め込みを予測する。
DeepMind Control Suiteでは、NE-DreamerはDreamerV3と主要なデコーダフリーエージェントのパフォーマンスにマッチするか、上回っている。
論文 参考訳(メタデータ) (2026-03-03T09:04:28Z) - DiffuCoder: Understanding and Improving Masked Diffusion Models for Code Generation [68.19756761027351]
拡散大言語モデル(dLLM)は自己回帰(AR)モデルの魅力的な代替品である。
本研究は,それらの認知過程と強化学習手法について考察する。
我々の研究は、dLLM生成のメカニズムについて深い洞察を与え、効果的な拡散ネイティブなRLトレーニングフレームワークを提供します。
論文 参考訳(メタデータ) (2025-06-25T17:35:47Z) - Raw2Drive: Reinforcement Learning with Aligned World Models for End-to-End Autonomous Driving (in CARLA v2) [54.185249897842034]
強化学習(RL)は、模倣学習(IL)に固有の因果的混乱と分布変化を軽減することができる
RLをエンドツーエンドの自動運転(E2E-AD)に適用することは、その訓練の難しさにおいて未解決の問題である。
論文 参考訳(メタデータ) (2025-05-22T08:46:53Z) - RMT: Retentive Networks Meet Vision Transformers [55.76528783956601]
近年,ビジョントランスフォーマー (ViT) がコンピュータビジョンコミュニティで注目を集めている。
自己注意は空間的先行性に欠け、二次的な計算複雑性を持つ。
一般的な目的のために,空間的に明瞭なバックボーンを持つ強力な視覚バックボーンであるRTTを提案する。
論文 参考訳(メタデータ) (2023-09-20T00:57:48Z) - MAELi: Masked Autoencoder for Large-Scale LiDAR Point Clouds [13.426810473131642]
Masked AutoEncoder for LiDAR Point clouds (MAELi) は、復元中にエンコーダとデコーダの両方でLiDARポイントクラウドの空間性を直感的に活用する。
新たな再構築アプローチでは、MAELiは空空間と隠された空間を区別する。
これにより、MAELiは基礎となる3次元シーンの幾何学と意味論の理解を得る。
論文 参考訳(メタデータ) (2022-12-14T13:10:27Z) - Matryoshka Representation Learning [43.62026091806627]
Matryoshka Representation Learningは、下流タスクの計算制約に適応するために、単一の埋め込みを可能にする。
MRLは、独立に訓練された低次元表現と同じくらい正確でリッチな粗大な表現を学習する。
MRLは、視覚(ViT、ResNet)、視覚+言語(ALIGN)、言語(BERT)といった、Webスケールのデータセットにシームレスに拡張する。
論文 参考訳(メタデータ) (2022-05-26T04:33:56Z) - Dreaming: Model-based Reinforcement Learning by Latent Imagination
without Reconstruction [14.950054143767824]
本稿では,Dreamerのデコーダフリー拡張を提案する。
我々は,ドリーマーの限界の低い証拠から,コントラスト学習という,可能性のないInfoMax目標を導出する。
新たに考案したDreamer with InfoMax and without Generative decoder (Dreaming)は,Dreamerや他のモデルレス強化学習手法と比較して,5つの困難なロボットタスクにおいて最高のスコアを得る。
論文 参考訳(メタデータ) (2020-07-29T00:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。