論文の概要: ReAcTree: Hierarchical LLM Agent Trees with Control Flow for Long-Horizon Task Planning
- arxiv url: http://arxiv.org/abs/2511.02424v1
- Date: Tue, 04 Nov 2025 09:55:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.884459
- Title: ReAcTree: Hierarchical LLM Agent Trees with Control Flow for Long-Horizon Task Planning
- Title(参考訳): ReAcTree: 長期タスク計画のための制御フローを有する階層型LLMエージェントツリー
- Authors: Jae-Woo Choi, Hyungmin Kim, Hyobin Ong, Minsu Jang, Dohyung Kim, Jaehong Kim, Youngwoo Yoon,
- Abstract要約: 本稿では,複雑な目標を動的に構築されたエージェントツリー内のより管理可能なサブゴールに分解する階層的タスクプランニング手法を提案する。
ReAcTreeは、さまざまな大きな言語モデルでReActのような強力なタスク計画ベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 6.600538353483611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in large language models (LLMs) have enabled significant progress in decision-making and task planning for embodied autonomous agents. However, most existing methods still struggle with complex, long-horizon tasks because they rely on a monolithic trajectory that entangles all past decisions and observations, attempting to solve the entire task in a single unified process. To address this limitation, we propose ReAcTree, a hierarchical task-planning method that decomposes a complex goal into more manageable subgoals within a dynamically constructed agent tree. Each subgoal is handled by an LLM agent node capable of reasoning, acting, and further expanding the tree, while control flow nodes coordinate the execution strategies of agent nodes. In addition, we integrate two complementary memory systems: each agent node retrieves goal-specific, subgoal-level examples from episodic memory and shares environment-specific observations through working memory. Experiments on the WAH-NL and ALFRED datasets demonstrate that ReAcTree consistently outperforms strong task-planning baselines such as ReAct across diverse LLMs. Notably, on WAH-NL, ReAcTree achieves a 61% goal success rate with Qwen 2.5 72B, nearly doubling ReAct's 31%.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、具体化された自律エージェントの意思決定とタスク計画に大きな進歩をもたらした。
しかしながら、既存のほとんどのメソッドは、過去の決定と観察をすべて絡み合わせるモノリシックな軌道に依存し、単一の統一プロセスでタスク全体を解決しようとするため、複雑で長期にわたるタスクに苦慮している。
この制限に対処するために、複雑な目標を動的に構築されたエージェントツリー内のより管理可能なサブゴールに分解する階層的なタスクプランニング手法ReAcTreeを提案する。
各サブゴールは、エージェントノードの実行戦略を制御しながら、ツリーの推論、動作、拡張が可能なLLMエージェントノードによって処理される。
さらに、各エージェントノードは、エピソードメモリからゴール固有のサブゴールレベルのサンプルを取得し、作業メモリを介して環境固有の観測を共有する。
WAH-NLとALFREDデータセットの実験では、ReAcTreeはさまざまなLLMにわたってReActのような強力なタスク計画ベースラインを一貫して上回っている。
特にWAH-NLでは、ReAcTreeはQwen 2.5 72Bで61%の成功率を記録し、ReActの31%をほぼ倍増した。
関連論文リスト
- ReCAP: Recursive Context-Aware Reasoning and Planning for Large Language Model Agents [61.51091799997476]
ReCAP(Recursive Context-Aware Reasoning and Planning)は,大規模言語モデル(LLM)における推論と計画のためのコンテキストを共有する階層型フレームワークである。
ReCAPは、プラン-アヘッド分解、親プランの構造化された再注入、メモリ効率の高い実行という3つの重要なメカニズムを組み合わせる。
実験により、ReCAPは様々なロングホライゾン推論ベンチマークにおけるサブゴールアライメントと成功率を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-10-27T20:03:55Z) - Tree Search for LLM Agent Reinforcement Learning [23.7084695563981]
Tree-based Group Relative Policy Optimization (Tree-GRPO) は、木探索に基づくグループ化エージェントRL法である。
共通のプレフィックスを共有することで、ツリー検索サンプリングは、達成可能なロールアウトの数を増やす。
木レベルでの相対的政策最適化の目的は、ステップレベルの直接選好学習と同等であることを示す。
論文 参考訳(メタデータ) (2025-09-25T14:37:09Z) - RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - Agents meet OKR: An Object and Key Results Driven Agent System with
Hierarchical Self-Collaboration and Self-Evaluation [25.308341461293857]
OKR-Agentは、タスク解決におけるLarge Language Models(LLM)の機能を強化するように設計されている。
我々のフレームワークには、階層オブジェクトとキー結果の生成とマルチレベル評価という、2つの新しいモジュールが含まれています。
論文 参考訳(メタデータ) (2023-11-28T06:16:30Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Tree-Planner: Efficient Close-loop Task Planning with Large Language Models [63.06270302774049]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。