論文の概要: What Drives Success in Physical Planning with Joint-Embedding Predictive World Models?
- arxiv url: http://arxiv.org/abs/2512.24497v1
- Date: Tue, 30 Dec 2025 22:50:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.503434
- Title: What Drives Success in Physical Planning with Joint-Embedding Predictive World Models?
- Title(参考訳): 統合埋め込み予測的世界モデルによる物理計画の成功を導くものは何か?
- Authors: Basile Terver, Tsung-Yen Yang, Jean Ponce, Adrien Bardes, Yann LeCun,
- Abstract要約: 世界モデルの学習表現空間を最適化する計画アルゴリズムを導入した。
本研究では,本科のモデルをJEPA-WMとして特徴付け,このクラスからアルゴリズムを作成する技術的選択について検討する。
本稿では,DINO-WM と V-JEPA-2-AC の2つのベースラインをナビゲーションと操作の両方で上回るモデルを提案する。
- 参考スコア(独自算出の注目度): 47.66705831032197
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A long-standing challenge in AI is to develop agents capable of solving a wide range of physical tasks and generalizing to new, unseen tasks and environments. A popular recent approach involves training a world model from state-action trajectories and subsequently use it with a planning algorithm to solve new tasks. Planning is commonly performed in the input space, but a recent family of methods has introduced planning algorithms that optimize in the learned representation space of the world model, with the promise that abstracting irrelevant details yields more efficient planning. In this work, we characterize models from this family as JEPA-WMs and investigate the technical choices that make algorithms from this class work. We propose a comprehensive study of several key components with the objective of finding the optimal approach within the family. We conducted experiments using both simulated environments and real-world robotic data, and studied how the model architecture, the training objective, and the planning algorithm affect planning success. We combine our findings to propose a model that outperforms two established baselines, DINO-WM and V-JEPA-2-AC, in both navigation and manipulation tasks. Code, data and checkpoints are available at https://github.com/facebookresearch/jepa-wms.
- Abstract(参考訳): AIにおける長年の課題は、幅広い物理的タスクを解決し、新しい、目に見えないタスクや環境に一般化できるエージェントを開発することである。
最近の一般的なアプローチでは、状態-作用軌道から世界モデルをトレーニングし、次に計画アルゴリズムで新しいタスクを解く。
一般には入力空間で計画が行われるが、近年の手法群では、学習された世界モデルの表現空間を最適化する計画アルゴリズムを導入しており、無関係な詳細を抽象化することがより効率的な計画をもたらすと約束されている。
本研究では,本科のモデルをJEPA-WMとして特徴付け,このクラスからアルゴリズムを作成する技術的選択について検討する。
本研究は,家族内における最適アプローチの発見を目的とした,いくつかの重要な構成要素の包括的研究を提案する。
シミュレーション環境と実世界のロボットデータの両方を用いて実験を行い,モデルアーキテクチャ,トレーニング目標,計画アルゴリズムが計画成功に与える影響について検討した。
本研究は,DINO-WMとV-JEPA-2-ACの2つのベースラインをナビゲーションと操作の両方において上回るモデルを提案する。
コード、データ、チェックポイントはhttps://github.com/facebookresearch/jepa-wms.comで入手できる。
関連論文リスト
- Closing the Train-Test Gap in World Models for Gradient-Based Planning [64.36544881136405]
本研究では,効率的な勾配計画を可能にする世界モデルの学習方法を提案する。
テスト時には,古典的勾配のないクロスエントロピー法よりも優れた手法が提案される。
論文 参考訳(メタデータ) (2025-12-10T18:59:45Z) - World Modeling Makes a Better Planner: Dual Preference Optimization for Embodied Task Planning [60.100794160682646]
そこで本稿では,嗜好学習による状態予測と行動選択を協調的に最適化する新たな学習フレームワークを提案する。
人間のアノテーションを使わずに軌道や段階的な選好データを自動的に収集するために,試行錯誤による広範囲な探索のための木探索機構を導入する。
提案手法は,Qwen2-VL (7B), LLaVA-1.6 (7B), LLaMA-3.2 (11B) に適用した場合, 既存の手法と GPT-4o を著しく上回っている。
論文 参考訳(メタデータ) (2025-03-13T15:49:56Z) - Learning from Reward-Free Offline Data: A Case for Planning with Latent Dynamics Models [79.2162092822111]
我々は,一連のナビゲーションタスクにおいて,強化学習(RL)と制御に基づく手法を体系的に評価する。
我々は、JEPA(Joint Embedding Predictive Architecture)を使用して、潜在ダイナミクスモデルを使用し、それを計画に使用します。
その結果,モデルベースプランニングではレイアウトが不明瞭になるのに対して,モデルフリーのRLは高品質なデータから恩恵を受けることがわかった。
論文 参考訳(メタデータ) (2025-02-20T18:39:41Z) - Planning as In-Painting: A Diffusion-Based Embodied Task Planning
Framework for Environments under Uncertainty [56.30846158280031]
具体的AIのためのタスクプランニングは、最も難しい問題の1つだ。
In-paintingとしての計画」というタスク非依存の手法を提案する。
提案するフレームワークは,様々な具体的AIタスクにおいて,有望なパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-12-02T10:07:17Z) - Thinker: Learning to Plan and Act [18.425843346728648]
思考アルゴリズムは環境を世界モデルで包み、世界モデルと対話するために設計された新しいアクションを導入する。
本研究では,ソコバンとアタリ2600ベンチマークを用いて,実験結果を用いてアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2023-07-27T16:40:14Z) - Continuous Control for Searching and Planning with a Learned Model [5.196149362684628]
計画機能を備えた意思決定エージェントは、Chess、Shogi、Goといった挑戦的なドメインで大きな成功を収めています。
研究者らは環境との相互作用を通じて動的モデルを学ぶことができるMuZeroアルゴリズムを提案した。
提案アルゴリズムは,最先端のモデルフリー深部強化学習アルゴリズムであるソフトアクター・クリティック(SAC)アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-12T19:10:41Z) - PlanGAN: Model-based Planning With Sparse Rewards and Multiple Goals [14.315501760755609]
PlanGANは、スパース報酬のある環境におけるマルチゴールタスクを解くためのモデルベースのアルゴリズムである。
本研究は,PlanGANが4~8倍の効率で,同等の性能を達成できることを示唆する。
論文 参考訳(メタデータ) (2020-06-01T12:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。