論文の概要: DreamingV2: Reinforcement Learning with Discrete World Models without
Reconstruction
- arxiv url: http://arxiv.org/abs/2203.00494v1
- Date: Tue, 1 Mar 2022 14:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 13:45:48.989834
- Title: DreamingV2: Reinforcement Learning with Discrete World Models without
Reconstruction
- Title(参考訳): dreamingv2:レコンストラクションのない離散世界モデルによる強化学習
- Authors: Masashi Okada, Tadahiro Taniguchi
- Abstract要約: 本稿では,世界モデルを用いた新しい強化学習手法DreamingV2を提案する。
DreamingV2はDreamerV2とDreamingの共同拡張である。
我々はDreamingV2がロボット学習の信頼性の高いソリューションになると信じている。
- 参考スコア(独自算出の注目度): 14.950054143767824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The present paper proposes a novel reinforcement learning method with world
models, DreamingV2, a collaborative extension of DreamerV2 and Dreaming.
DreamerV2 is a cutting-edge model-based reinforcement learning from pixels that
uses discrete world models to represent latent states with categorical
variables. Dreaming is also a form of reinforcement learning from pixels that
attempts to avoid the autoencoding process in general world model training by
involving a reconstruction-free contrastive learning objective. The proposed
DreamingV2 is a novel approach of adopting both the discrete representation of
DreamingV2 and the reconstruction-free objective of Dreaming. Compared to
DreamerV2 and other recent model-based methods without reconstruction,
DreamingV2 achieves the best scores on five simulated challenging 3D robot arm
tasks. We believe that DreamingV2 will be a reliable solution for robot
learning since its discrete representation is suitable to describe
discontinuous environments, and the reconstruction-free fashion well manages
complex vision observations.
- Abstract(参考訳): 本稿では,dreamerv2とdreamingの協調拡張であるdreamingv2という,世界モデルを用いた新しい強化学習手法を提案する。
dreamerv2はピクセルからの最先端モデルに基づく強化学習であり、離散世界モデルを用いてカテゴリ変数を持つ潜在状態を表現する。
また、夢はピクセルからの強化学習の一形態であり、リコンストラクションフリーのコントラスト学習目標を伴って、一般世界モデルトレーニングにおける自動エンコーディングプロセスを避けようとするものである。
提案されたDreamingV2は、DreamingV2の離散表現とDreamingの再構成不要な目的の両方を採用する新しいアプローチである。
DreamerV2と最近のモデルベースで再現しない手法と比較すると、DreamingV2は5つのシミュレーションされた3Dロボットアームタスクで最高のスコアを得る。
その離散表現は不連続な環境を記述するのに適しているため、dreamingv2はロボット学習にとって信頼できるソリューションであると信じています。
関連論文リスト
- VistaDream: Sampling multiview consistent images for single-view scene reconstruction [63.991582576387856]
VistaDreamは、単一のビューイメージから3Dシーンを再構築するフレームワークである。
近年の拡散モデルでは、単一ビューの入力画像から高品質のノベルビュー画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-22T10:55:59Z) - Dreaming is All You Need [6.706761900460658]
本研究では,探索と精度のバランスをとるために,SleepNetとDreamNetという2つの新しいディープラーニングモデルを紹介する。
SleepNetは、事前訓練されたエンコーダモデルを使用して教師あり学習と教師なし睡眠のステージをシームレスに統合する。
DreamNetは、隠れた状態を再構築するために完全なエンコーダ・デコーダフレームワークを使用しており、人間の"ドレーミング"プロセスを模倣している。
論文 参考訳(メタデータ) (2024-09-03T06:04:39Z) - MuDreamer: Learning Predictive World Models without Reconstruction [58.0159270859475]
本稿では,DreamerV3アルゴリズムに基づく堅牢な強化学習エージェントであるMuDreamerについて述べる。
本手法は,Atari100kベンチマークにおいて,より高速なトレーニングの恩恵を受けながら,同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T22:09:01Z) - DreamCreature: Crafting Photorealistic Virtual Creatures from
Imagination [140.1641573781066]
ターゲット概念のラベルなしイメージのセットを前提として、我々は、新しいハイブリッド概念を創出できるT2Iモデルをトレーニングすることを目指している。
そこで我々はDreamCreatureと呼ばれる新しい手法を提案し,その基盤となるサブ概念を同定し抽出する。
したがって、T2Iは忠実な構造とフォトリアリスティックな外観を持つ新しい概念を生成するのに適応する。
論文 参考訳(メタデータ) (2023-11-27T01:24:31Z) - DriveDreamer: Towards Real-world-driven World Models for Autonomous
Driving [76.24483706445298]
実世界の運転シナリオから完全に派生した世界モデルであるDriveDreamerを紹介する。
最初の段階では、DriveDreamerは構造化されたトラフィックの制約を深く理解し、次の段階では将来の状態を予測できる。
DriveDreamerは、現実的で合理的な運転ポリシーの生成を可能にし、インタラクションと実用的なアプリケーションのための道を開く。
論文 参考訳(メタデータ) (2023-09-18T13:58:42Z) - Dropout's Dream Land: Generalization from Learned Simulators to Reality [33.9093915440877]
世界モデルは環境をシミュレートするための生成モデルである。
本研究では,ドリーム環境から現実環境への一般化能力の向上について検討する。
本稿では,ニューラルネットワークのドリーム環境から現実へ移行するコントローラの能力を改善するための一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-17T03:58:56Z) - Mastering Atari with Discrete World Models [61.7688353335468]
本稿では,強力な世界モデルのコンパクトな潜伏空間における予測から純粋に振る舞いを学習する強化学習エージェントであるDreamerV2を紹介する。
DreamerV2は、Atariベンチマークにおいて、個別に訓練された世界モデル内での振る舞いを学習することで、55タスクの人間レベルのパフォーマンスを達成する最初のエージェントである。
論文 参考訳(メタデータ) (2020-10-05T17:52:14Z) - Dreaming: Model-based Reinforcement Learning by Latent Imagination
without Reconstruction [14.950054143767824]
本稿では,Dreamerのデコーダフリー拡張を提案する。
我々は,ドリーマーの限界の低い証拠から,コントラスト学習という,可能性のないInfoMax目標を導出する。
新たに考案したDreamer with InfoMax and without Generative decoder (Dreaming)は,Dreamerや他のモデルレス強化学習手法と比較して,5つの困難なロボットタスクにおいて最高のスコアを得る。
論文 参考訳(メタデータ) (2020-07-29T00:14:40Z) - Large-Scale Adversarial Training for Vision-and-Language Representation
Learning [81.76089876263175]
VILLAは視覚と言語(V+L)表現学習のための大規模対人訓練における最初の試みである。
VILLAは2つの訓練段階から構成される: (i) タスクに依存しない対人事前訓練、および (ii) タスク固有の対人微調整である。
論文 参考訳(メタデータ) (2020-06-11T05:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。