論文の概要: Beyond Entangled Planning: Task-Decoupled Planning for Long-Horizon Agents
- arxiv url: http://arxiv.org/abs/2601.07577v1
- Date: Mon, 12 Jan 2026 14:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.439337
- Title: Beyond Entangled Planning: Task-Decoupled Planning for Long-Horizon Agents
- Title(参考訳): 絡み合った計画を超えて:長距離エージェントのタスク分離計画
- Authors: Yunfan Li, Bingbing Xu, Xueyun Tian, Xiucheng Xu, Huawei Shen,
- Abstract要約: Task-Decoupled Planning (TDP)は、絡み合った推論をタスク・デカップリングに置き換えるトレーニング不要のフレームワークである。
TDPは、ワークフローを中断することなく、推論とアクティブなサブタスクへのリプレーニングを限定する。
TravelPlanner、ScienceWorld、HotpotQAの結果は、TDPがトークン消費を最大82%削減しながら、強力なベースラインを上回っていることを示している。
- 参考スコア(独自算出の注目度): 28.061156787350395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have enabled agents to autonomously execute complex, long-horizon tasks, yet planning remains a primary bottleneck for reliable task execution. Existing methods typically fall into two paradigms: step-wise planning, which is reactive but often short-sighted; and one-shot planning, which generates a complete plan upfront yet is brittle to execution errors. Crucially, both paradigms suffer from entangled contexts, where the agent must reason over a monolithic history spanning multiple sub-tasks. This entanglement increases cognitive load and lets local errors propagate across otherwise independent decisions, making recovery computationally expensive. To address this, we propose Task-Decoupled Planning (TDP), a training-free framework that replaces entangled reasoning with task decoupling. TDP decomposes tasks into a directed acyclic graph (DAG) of sub-goals via a Supervisor. Using a Planner and Executor with scoped contexts, TDP confines reasoning and replanning to the active sub-task. This isolation prevents error propagation and corrects deviations locally without disrupting the workflow. Results on TravelPlanner, ScienceWorld, and HotpotQA show that TDP outperforms strong baselines while reducing token consumption by up to 82%, demonstrating that sub-task decoupling improves both robustness and efficiency for long-horizon agents.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩により、エージェントは複雑な長期タスクを自律的に実行できるようになったが、信頼性の高いタスク実行の主要なボトルネックは計画である。
既存の手法は一般的に2つのパラダイムに分類される: ステップワイズ計画(リアクティブだが、しばしば近視眼的)と、完全な計画を生成するワンショット計画(一発計画)。
重要なことに、両方のパラダイムは絡み合ったコンテキストに悩まされ、エージェントは複数のサブタスクにまたがるモノリシックな歴史を推論しなければならない。
この絡み合いは認知負荷を増大させ、局所的なエラーが他の独立した決定を越えて伝播し、回復を計算的に高価にする。
タスク分離計画(TDP, Task-Decoupled Planning)は, 絡み合った推論をタスク分離に置き換える学習自由フレームワークである。
TDPはタスクをスーパーバイザを介してサブゴールの有向非巡回グラフ(DAG)に分解する。
スコープ付きコンテキストを持つPlannerとExecutorを使用することで、TDPは推論とアクティブなサブタスクへの再計画を限定する。
この分離は、エラーの伝播を防止し、ワークフローを中断することなく、ローカルで逸脱を修正する。
TravelPlanner、ScienceWorld、HotpotQAの結果、TDPはトークン消費を最大82%削減しながら、強力なベースラインを上回り、サブタスクのデカップリングにより、ロングホライゾンエージェントの堅牢性と効率が向上することを示した。
関連論文リスト
- Decompose, Plan in Parallel, and Merge: A Novel Paradigm for Large Language Models based Planning with Multiple Constraints [31.631832677979826]
本稿では,並列計画パラダイムを提案し,並列におけるサブタスク計画とマージを最終計画(DPPM)に分割する。
具体的には、制約に基づいて複雑なタスクをサブタスクに分解し、各サブタスクのサブプランを並列に生成し、それらをグローバルプランにマージする。
実験の結果,DPPMは旅行計画タスクにおいて既存の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-06-03T09:33:13Z) - HyperTree Planning: Enhancing LLM Reasoning via Hierarchical Thinking [109.09735490692202]
提案するHyperTree Planning(HTP)は,高木構造プランニングアウトラインを構成する新しい推論パラダイムである。
実験ではHTPの有効性を実証し、Gemini-1.5-ProによるTravelPlannerベンチマークで最先端の精度を実現し、o1-previewよりも3.6倍の性能向上を実現した。
論文 参考訳(メタデータ) (2025-05-05T02:38:58Z) - Hindsight Planner: A Closed-Loop Few-Shot Planner for Embodied Instruction Following [62.10809033451526]
本研究は,Large Language Models (LLM) を用いた Embodied Instruction following (EIF) タスクプランナの構築に焦点をあてる。
我々は,このタスクを部分観測可能なマルコフ決定プロセス (POMDP) として構成し,数発の仮定で頑健なプランナーの開発を目指す。
ALFREDデータセットに対する我々の実験は、プランナーが数ショットの仮定で競争性能を達成することを示す。
論文 参考訳(メタデータ) (2024-12-27T10:05:45Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Tree-Planner: Efficient Close-loop Task Planning with Large Language Models [63.06270302774049]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z) - POMRL: No-Regret Learning-to-Plan with Increasing Horizons [43.693739167594295]
オンラインメタ強化学習環境におけるモデル不確実性の下での計画課題について検討する。
本稿では,タスク間の基盤構造をメタラーニングし,タスクごとの計画を立てるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T03:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。