論文の概要: Finite Automata Extraction: Low-data World Model Learning as Programs from Gameplay Video
- arxiv url: http://arxiv.org/abs/2508.11836v1
- Date: Fri, 15 Aug 2025 23:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.404491
- Title: Finite Automata Extraction: Low-data World Model Learning as Programs from Gameplay Video
- Title(参考訳): 有限オートマタ抽出:ゲームプレイビデオからのプログラムとしての低データワールドモデル学習
- Authors: Dave Goel, Matthew Guzdial, Anurag Sarkar,
- Abstract要約: 本稿では,新しいドメイン固有言語におけるプログラムとして表現されるゲームプレイビデオから,ニューロシンボリックな世界モデルを学ぶアプローチを提案する。
従来の世界モデルアプローチと比較して、AFEは環境のより正確なモデルと、従来の空間的アプローチよりも一般的なコードを学ぶ。
- 参考スコア(独自算出の注目度): 3.213440505903066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: World models are defined as a compressed spatial and temporal learned representation of an environment. The learned representation is typically a neural network, making transfer of the learned environment dynamics and explainability a challenge. In this paper, we propose an approach, Finite Automata Extraction (FAE), that learns a neuro-symbolic world model from gameplay video represented as programs in a novel domain-specific language (DSL): Retro Coder. Compared to prior world model approaches, FAE learns a more precise model of the environment and more general code than prior DSL-based approaches.
- Abstract(参考訳): 世界モデルは、環境の圧縮された空間的および時間的学習された表現として定義される。
学習された表現は一般的にニューラルネットワークであり、学習した環境のダイナミクスと説明可能性の伝達が課題となる。
本稿では,新しいドメイン固有言語(DSL)におけるプログラムとして表現されるゲームプレイビデオから,ニューロシンボリックな世界モデルを学習するFinite Automata extract (FAE)を提案する。
従来の世界モデルアプローチと比較して、FAEは、従来のDSLベースのアプローチよりも、環境のより正確なモデルとより一般的なコードを学びます。
関連論文リスト
- PoE-World: Compositional World Modeling with Products of Programmatic Experts [41.07916209987106]
世界がどのように機能するかを学ぶことは、複雑な環境に適応できるAIエージェントの構築の中心である。
LLM(Large Language Models)を用いたプログラム合成の最近の進歩は、ソースコードとして表現された世界モデルを学ぶための代替アプローチを提供する。
このアプローチは,数個の観測結果から複雑な世界モデルを学習できることを示し,これらをモデルベース計画エージェントに組み込むことで,AtariのPongとMontezumaのRevengeの未確認レベルに対する効率的な性能と一般化を実証する。
論文 参考訳(メタデータ) (2025-05-16T03:28:42Z) - SMILE: Infusing Spatial and Motion Semantics in Masked Video Learning [50.98341607245458]
Masked Video Modelingはビデオ自己教師型学習(SSL)に有効なパラダイムである
本稿では,空間的意味論と動き的意味論を融合させることにより,SMILEと呼ばれるビデオ表現学習のための新しいSSL手法を提案する。
我々は、自然な映像データを必要とせず、強力な映像表現を学習できる、新しい自己教師型ビデオ学習パラダイムを確立した。
論文 参考訳(メタデータ) (2025-04-01T08:20:55Z) - Disentangled World Models: Learning to Transfer Semantic Knowledge from Distracting Videos for Reinforcement Learning [93.58897637077001]
本稿では,オフラインからオンラインまでの潜水蒸留とフレキシブルなゆがみ制約を通したビデオから,セマンティックな違いを学習し,理解することを試みる。
動作自由なビデオ予測モデルを非干渉正規化によりオフラインでトレーニングし、注意をそらすビデオから意味的知識を抽出する。
オンライン環境での微調整には、事前学習されたモデルからの知識を活用し、世界モデルに絡み合った制約を導入する。
論文 参考訳(メタデータ) (2025-03-11T13:50:22Z) - One-shot World Models Using a Transformer Trained on a Synthetic Prior [37.027893127637036]
ワンショット世界モデル(英: One-Shot World Model、OSWM)は、純粋に合成データからコンテキスト内学習形式で学習されるトランスフォーマー世界モデルである。
OSWMは、シンプルなグリッド世界のダイナミクスや、CartPoleのジム、カスタムコントロール環境に迅速に適応できる。
論文 参考訳(メタデータ) (2024-09-21T09:39:32Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。