論文の概要: CoEx -- Co-evolving World-model and Exploration
- arxiv url: http://arxiv.org/abs/2507.22281v1
- Date: Tue, 29 Jul 2025 23:13:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.899635
- Title: CoEx -- Co-evolving World-model and Exploration
- Title(参考訳): CoEx -- 世界モデルと探索の共同開発
- Authors: Minsoo Kim, Seung-won Hwang,
- Abstract要約: 現代のLLMエージェントの計画は、LLMを内的世界モデルとして活用することに依存している。
既存のエージェント設計では、世界モデルの動的更新に新しい観測を効果的に同化することができない。
階層型エージェントアーキテクチャであるCoExを導入し、階層型状態抽象化によりLLM計画と動的に更新された世界のモデルとの共進化を可能にする。
- 参考スコア(独自算出の注目度): 24.960276990968822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Planning in modern LLM agents relies on the utilization of LLM as an internal world model, acquired during pretraining. However, existing agent designs fail to effectively assimilate new observations into dynamic updates of the world model. This reliance on the LLM's static internal world model is progressively prone to misalignment with the underlying true state of the world, leading to the generation of divergent and erroneous plans. We introduce a hierarchical agent architecture, CoEx, in which hierarchical state abstraction allows LLM planning to co-evolve with a dynamically updated model of the world. CoEx plans and interacts with the world by using LLM reasoning to orchestrate dynamic plans consisting of subgoals, and its learning mechanism continuously incorporates these subgoal experiences into a persistent world model in the form of a neurosymbolic belief state, comprising textual inferences and code-based symbolic memory. We evaluate our agent across a diverse set of agent scenarios involving rich environments and complex tasks including ALFWorld, PDDL, and Jericho. Our experiments show that CoEx outperforms existing agent paradigms in planning and exploration.
- Abstract(参考訳): 現代のLLMエージェントのプランニングは、事前訓練中に取得した内部世界モデルとしてのLLMの利用に依存している。
しかし、既存のエージェント設計では、世界モデルの動的更新に新しい観測を効果的に同化できない。
LLMの静的な内的世界モデルへの依存は、世界の根底にある真の状態と不整合しやすくなり、異なる計画と誤った計画が生み出される。
階層型エージェントアーキテクチャであるCoExを導入し、階層型状態抽象化によりLLM計画と動的に更新された世界のモデルとの共進化を可能にする。
CoExは、LLM推論を用いて、サブゴールからなる動的プランを編成し、その学習メカニズムは、これらのサブゴール体験を、テキスト推論とコードベースのシンボリックメモリを含む、ニューロシンボリックな信念状態の形で永続的な世界モデルに継続的に組み込む。
我々は,ALFWorld,PDDL,Jerrichoなど,豊富な環境や複雑なタスクを含むエージェントシナリオの多様さをエージェントとして評価した。
実験の結果,CoExは計画と探索において,既存のエージェントパラダイムよりも優れていることがわかった。
関連論文リスト
- Inter-environmental world modeling for continuous and compositional dynamics [7.01176359680407]
環境全体にわたってシミュレートする継続的潜在アクション表現を学習する、教師なしのフレームワークであるLie Actionを紹介した。
WLAはビデオフレームのみを用いてトレーニングが可能であり、アクションラベルが最小でも無ければ、新しいアクションセットを持つ新しい環境に迅速に適応できることを実証する。
論文 参考訳(メタデータ) (2025-03-13T00:02:54Z) - MINDSTORES: Memory-Informed Neural Decision Synthesis for Task-Oriented Reinforcement in Embodied Systems [0.5662299435213421]
本研究では,体験向上型計画フレームワークMINDSTORESを導入し,エージェントがメンタルモデルを構築し,活用できるようにする。
MINDSTORES は,既存のメモリベース LLM プランナよりも学習し,その知識を適用している。
論文 参考訳(メタデータ) (2025-01-31T17:15:33Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - WorldGPT: Empowering LLM as Multimodal World Model [51.243464216500975]
MLLM(Multimodal Large Language Model)に基づく汎用世界モデルWorldGPTを紹介する。
WorldGPTは、さまざまなドメインにまたがる数百万のビデオを分析して、世界ダイナミクスの理解を得る。
マルチモーダル状態遷移予測ベンチマークWorldNetの評価を行う。
論文 参考訳(メタデータ) (2024-04-28T14:42:02Z) - EgoPlan-Bench: Benchmarking Multimodal Large Language Models for Human-Level Planning [84.6451394629312]
実世界のシナリオにおけるMLLMの計画能力を評価するベンチマークであるEgoPlan-Benchを紹介する。
EgoPlan-Benchは、人間レベルのタスクプランニングを実現するためのMLLMの改善のかなりの範囲を浮き彫りにする。
また,EgoPlan-Bench上でのモデル性能を効果的に向上する特殊命令チューニングデータセットであるEgoPlan-ITを提案する。
論文 参考訳(メタデータ) (2023-12-11T03:35:58Z) - DREAMWALKER: Mental Planning for Continuous Vision-Language Navigation [107.5934592892763]
本稿では,世界モデルに基づくVLN-CEエージェントDREAMWALKERを提案する。
世界モデルは、複雑な連続環境の視覚的、位相的、動的特性を要約するために構築される。
コストのかかるアクションを実行する前に、そのような抽象的な世界で可能な計画を完全にシミュレートし、評価することができる。
論文 参考訳(メタデータ) (2023-08-14T23:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。