論文の概要: ReCode: Unify Plan and Action for Universal Granularity Control
- arxiv url: http://arxiv.org/abs/2510.23564v2
- Date: Tue, 28 Oct 2025 03:22:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 13:20:32.921034
- Title: ReCode: Unify Plan and Action for Universal Granularity Control
- Title(参考訳): ReCode:Universal Granularity Controlのための計画とアクションを統合する
- Authors: Zhaoyang Yu, Jiayi Zhang, Huixue Su, Yufan Zhao, Yifan Wu, Mingyi Deng, Jinyu Xiang, Yizhang Lin, Lingxiao Tang, Yingchao Li, Yuyu Luo, Bang Liu, Chenglin Wu,
- Abstract要約: 現実世界のタスクは、様々な粒度の決定を必要とし、人間は、統一された認知表現を活用することで、これを優れている。
現在のLLM(Large Language Model)ベースのエージェントには、決定の粒度を流動的に操作する重要な機能が欠けている。
単一のコード表現内に計画とアクションを統合することで、この制限に対処する新しいパラダイムであるReCodeを提案する。
- 参考スコア(独自算出の注目度): 35.49121741462282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world tasks require decisions at varying granularities, and humans excel at this by leveraging a unified cognitive representation where planning is fundamentally understood as a high-level form of action. However, current Large Language Model (LLM)-based agents lack this crucial capability to operate fluidly across decision granularities. This limitation stems from existing paradigms that enforce a rigid separation between high-level planning and low-level action, which impairs dynamic adaptability and limits generalization. We propose ReCode (Recursive Code Generation), a novel paradigm that addresses this limitation by unifying planning and action within a single code representation. In this representation, ReCode treats high-level plans as abstract placeholder functions, which the agent then recursively decomposes into finer-grained sub-functions until reaching primitive actions. This recursive approach dissolves the rigid boundary between plan and action, enabling the agent to dynamically control its decision granularity. Furthermore, the recursive structure inherently generates rich, multi-granularity training data, enabling models to learn hierarchical decision-making processes. Extensive experiments show ReCode significantly surpasses advanced baselines in inference performance and demonstrates exceptional data efficiency in training, validating our core insight that unifying planning and action through recursive code generation is a powerful and effective approach to achieving universal granularity control. The code is available at https://github.com/FoundationAgents/ReCode.
- Abstract(参考訳): 現実世界のタスクには様々な粒度での意思決定が必要であり、計画が基本的にハイレベルな行動形式として理解されるような統一された認知表現を活用することで、人間はこれに長けている。
しかし、現在のLLM(Large Language Model)ベースのエージェントには、決定の粒度を流動的に操作する重要な機能が欠けている。
この制限は、高レベルの計画と低レベルの行動の厳格な分離を強制する既存のパラダイムに起因している。
この制限に対処する新しいパラダイムであるReCode(Recursive Code Generation)を提案する。
この表現では、ReCodeはハイレベルプランを抽象プレースホルダー関数として扱い、エージェントはプリミティブアクションに到達するまで、よりきめ細かなサブファンクションに再帰的に分解する。
この再帰的アプローチは、計画と行動の間の厳密な境界を解き、エージェントはその決定の粒度を動的に制御することができる。
さらに、再帰的構造は本質的にリッチで多粒度なトレーニングデータを生成し、モデルが階層的な意思決定プロセスを学ぶことを可能にする。
大規模な実験では、ReCodeは推論性能の高度なベースラインを大幅に上回り、トレーニングにおける例外的なデータ効率を示し、再帰的なコード生成による計画とアクションの統合は、普遍的な粒度制御を達成するための強力で効果的なアプローチである、という私たちの中核的な洞察を検証しています。
コードはhttps://github.com/FoundationAgents/ReCodeで入手できる。
関連論文リスト
- Unlocking Smarter Device Control: Foresighted Planning with a World Model-Driven Code Execution Approach [82.27842884709378]
本研究では,自然言語理解と構造化推論を優先し,エージェントの環境に対するグローバルな理解を高める枠組みを提案する。
本手法は,従来の手法,特にタスク成功率の44.4%向上を達成している。
論文 参考訳(メタデータ) (2025-05-22T09:08:47Z) - Embodied Long Horizon Manipulation with Closed-loop Code Generation and Incremental Few-shot Adaptation [12.077740860502878]
身体的ロングホライゾン操作では、ロボットシステムが視覚や自然言語などのマルチモーダル入力を処理し、それらを実行可能なアクションに変換する必要がある。
近年,大規模言語モデル (LLM) を自然言語を用いてタスクをサブタスクに分解し,事前訓練した低レベルコントローラを誘導する高レベルプランナとしての利用が検討されている。
我々のフレームワークは,LoHoRavens,CALVIN,Franka Kitchen,および乱雑な現実世界設定をまたいだ,30以上の多様かつ不明瞭なロングホライゾンタスクに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-27T20:32:58Z) - Tree-of-Code: A Hybrid Approach for Robust Complex Task Planning and Execution [3.229241113813517]
本稿では,toC(Tree-of-Code)と呼ばれる新しい手法を提案する。
本フレームワークでは,各最終的なコード実行結果を決定ツリーのノードとして扱う。
論文 参考訳(メタデータ) (2024-12-18T08:47:17Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Feudal Graph Reinforcement Learning [18.069747511100132]
グラフに基づく表現とメッセージパッシングモジュールポリシーは、強化学習(RL)における構成可能な制御問題に対処するための顕著なアプローチである
本稿では,階層的RLとピラミッド型メッセージパッシングアーキテクチャを頼りに,このような課題に対処する新しい手法であるFeudal Graph Reinforcement Learning (FGRL)を提案する。
特に、FGRLは階層化されたグラフ構造を通して、階層の上部から上位のコマンドが伝播するポリシーの階層を定義している。
論文 参考訳(メタデータ) (2023-04-11T09:51:13Z) - Goal Kernel Planning: Linearly-Solvable Non-Markovian Policies for Logical Tasks with Goal-Conditioned Options [54.40780660868349]
我々はLinearly-Solvable Goal Kernel Dynamic Programming (LS-GKDP)と呼ばれる合成フレームワークを導入する。
LS-GKDPは、Linearly-Solvable Markov Decision Process (LMDP)形式とOptions Framework of Reinforcement Learningを組み合わせたものである。
本稿では,目標カーネルを持つLMDPが,タスク接地によって定義された低次元部分空間におけるメタポリティシの効率的な最適化を実現する方法を示す。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z) - From proprioception to long-horizon planning in novel environments: A
hierarchical RL model [4.44317046648898]
本稿では,異なるタイプの推論を反映した,単純で3段階の階層型アーキテクチャを提案する。
本手法をMujoco Ant環境における一連のナビゲーションタスクに適用する。
論文 参考訳(メタデータ) (2020-06-11T17:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。