論文の概要: TransDreamerV3: Implanting Transformer In DreamerV3
- arxiv url: http://arxiv.org/abs/2506.17103v1
- Date: Fri, 20 Jun 2025 16:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.526192
- Title: TransDreamerV3: Implanting Transformer In DreamerV3
- Title(参考訳): TransDreamerV3:DreamerV3にトランスフォーマーを埋め込む
- Authors: Shruti Sadanand Dongare, Amun Kharel, Jonathan Samuel, Xiaona Zhou,
- Abstract要約: 本稿では,変換器エンコーダを統合することで,DreamerV3アーキテクチャを向上する強化学習モデルであるTransDreamerV3を紹介する。
我々は,Atari-Boxing,Atari-Freeway,Atari-Pong,Crafterタスクについて実験を行い,TransDreamerV3はDreamerV3よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces TransDreamerV3, a reinforcement learning model that enhances the DreamerV3 architecture by integrating a transformer encoder. The model is designed to improve memory and decision-making capabilities in complex environments. We conducted experiments on Atari-Boxing, Atari-Freeway, Atari-Pong, and Crafter tasks, where TransDreamerV3 demonstrated improved performance over DreamerV3, particularly in the Atari-Freeway and Crafter tasks. While issues in the Minecraft task and limited training across all tasks were noted, TransDreamerV3 displays advancement in world model-based reinforcement learning, leveraging transformer architectures.
- Abstract(参考訳): 本稿では,変換器エンコーダを統合することで,DreamerV3アーキテクチャを向上する強化学習モデルであるTransDreamerV3を紹介する。
このモデルは、複雑な環境におけるメモリと意思決定能力を改善するように設計されている。
我々は,Atari-Boxing,Atari-Freeway,Atari-Pong,Crafterタスクについて実験を行い,TransDreamerV3は特にAtari-FreewayおよびCrafterタスクにおいて,DreamerV3よりも優れた性能を示した。
Minecraftタスクの問題と、すべてのタスクにわたる限られたトレーニングが指摘されているが、TransDreamerV3はトランスフォーマーアーキテクチャを活用することで、世界モデルベースの強化学習の進歩を示す。
関連論文リスト
- World Model Agents with Change-Based Intrinsic Motivation [0.0]
この問題に対処するための有望な戦略として、本質的なモチベーションと伝達学習が出現している。
CBET(Change Based Exploration Transfer)は、スパースフィードバックに対処する可能性を示しているが、現代のアルゴリズムによるその有効性はまだ検討されていない。
論文 参考訳(メタデータ) (2025-03-26T23:40:03Z) - Atleus: Accelerating Transformers on the Edge Enabled by 3D Heterogeneous Manycore Architectures [18.355570259898]
Atleusと呼ばれる3次元ヘテロジニアスアーキテクチャの設計を提案する。
Atleusには、トランスフォーマーモデルを加速するために特別に最適化された異種コンピューティングリソースが組み込まれている。
Atleusは, 性能およびエネルギー効率の点で, 既存の最先端技術よりも56倍, 64.5倍高い性能を示した。
論文 参考訳(メタデータ) (2025-01-16T15:11:33Z) - T2V-Turbo-v2: Enhancing Video Generation Model Post-Training through Data, Reward, and Conditional Guidance Design [79.7289790249621]
提案手法であるT2V-Turbo-v2は、様々な監視信号を統合することにより、大幅な進歩をもたらす。
特定の学習目標に対するデータセットの調整の重要性を強調した。
トレーニングデータセットから動作ガイダンスを抽出し,ODEソルバに組み込むことにより,このアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-10-08T04:30:06Z) - MuDreamer: Learning Predictive World Models without Reconstruction [58.0159270859475]
本稿では,DreamerV3アルゴリズムに基づく堅牢な強化学習エージェントであるMuDreamerについて述べる。
本手法は,Atari100kベンチマークにおいて,より高速なトレーニングの恩恵を受けながら,同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T22:09:01Z) - 3D Vision with Transformers: A Survey [114.86385193388439]
自然言語処理におけるトランスフォーマーアーキテクチャの成功は、コンピュータビジョン分野の注目を集めている。
本稿では,異なる3次元視覚タスクのための100以上のトランスフォーマー手法の体系的,徹底的なレビューを行う。
我々は3次元視覚におけるトランスフォーマー設計について議論し、様々な3次元表現でデータを処理できるようにする。
論文 参考訳(メタデータ) (2022-08-08T17:59:11Z) - DreamingV2: Reinforcement Learning with Discrete World Models without
Reconstruction [14.950054143767824]
本稿では,世界モデルを用いた新しい強化学習手法DreamingV2を提案する。
DreamingV2はDreamerV2とDreamingの共同拡張である。
我々はDreamingV2がロボット学習の信頼性の高いソリューションになると信じている。
論文 参考訳(メタデータ) (2022-03-01T14:44:15Z) - Improving Sample Efficiency of Value Based Models Using Attention and
Vision Transformers [52.30336730712544]
性能を犠牲にすることなくサンプル効率を向上させることを目的とした深層強化学習アーキテクチャを提案する。
状態表現の特徴マップ上の自己注意機構を変換器を用いて学習する視覚的注意モデルを提案する。
我々は,このアーキテクチャがいくつかのAtari環境におけるサンプルの複雑さを向上すると同時に,いくつかのゲームにおいて優れたパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2022-02-01T19:03:03Z) - Mastering Atari with Discrete World Models [61.7688353335468]
本稿では,強力な世界モデルのコンパクトな潜伏空間における予測から純粋に振る舞いを学習する強化学習エージェントであるDreamerV2を紹介する。
DreamerV2は、Atariベンチマークにおいて、個別に訓練された世界モデル内での振る舞いを学習することで、55タスクの人間レベルのパフォーマンスを達成する最初のエージェントである。
論文 参考訳(メタデータ) (2020-10-05T17:52:14Z) - Dreaming: Model-based Reinforcement Learning by Latent Imagination
without Reconstruction [14.950054143767824]
本稿では,Dreamerのデコーダフリー拡張を提案する。
我々は,ドリーマーの限界の低い証拠から,コントラスト学習という,可能性のないInfoMax目標を導出する。
新たに考案したDreamer with InfoMax and without Generative decoder (Dreaming)は,Dreamerや他のモデルレス強化学習手法と比較して,5つの困難なロボットタスクにおいて最高のスコアを得る。
論文 参考訳(メタデータ) (2020-07-29T00:14:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。