論文の概要: Tree-Planner: Efficient Close-loop Task Planning with Large Language Models
- arxiv url: http://arxiv.org/abs/2310.08582v2
- Date: Wed, 24 Jul 2024 12:25:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 19:50:07.355310
- Title: Tree-Planner: Efficient Close-loop Task Planning with Large Language Models
- Title(参考訳): Tree-Planner: 大規模言語モデルを用いた効率的なクローズループタスク計画
- Authors: Mengkang Hu, Yao Mu, Xinmiao Yu, Mingyu Ding, Shiguang Wu, Wenqi Shao, Qiguang Chen, Bin Wang, Yu Qiao, Ping Luo,
- Abstract要約: Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 63.06270302774049
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies close-loop task planning, which refers to the process of generating a sequence of skills (a plan) to accomplish a specific goal while adapting the plan based on real-time observations. Recently, prompting Large Language Models (LLMs) to generate actions iteratively has become a prevalent paradigm due to its superior performance and user-friendliness. However, this paradigm is plagued by two inefficiencies: high token consumption and redundant error correction, both of which hinder its scalability for large-scale testing and applications. To address these issues, we propose Tree-Planner, which reframes task planning with LLMs into three distinct phases: plan sampling, action tree construction, and grounded deciding. Tree-Planner starts by using an LLM to sample a set of potential plans before execution, followed by the aggregation of them to form an action tree. Finally, the LLM performs a top-down decision-making process on the tree, taking into account real-time environmental information. Experiments show that Tree-Planner achieves state-of-the-art performance while maintaining high efficiency. By decomposing LLM queries into a single plan-sampling call and multiple grounded-deciding calls, a considerable part of the prompt are less likely to be repeatedly consumed. As a result, token consumption is reduced by 92.2% compared to the previously best-performing model. Additionally, by enabling backtracking on the action tree as needed, the correction process becomes more flexible, leading to a 40.5% decrease in error corrections.
- Abstract(参考訳): 本稿では,実時間観測に基づいて計画に適応しながら,特定の目標を達成するための一連のスキル(計画)を生成するプロセスについて,クローズループタスク計画について考察する。
近年,Large Language Models (LLM) の動作を反復的に生成するよう促すことが,その性能とユーザフレンドリさの面から,広く普及しているパラダイムとなっている。
しかし、このパラダイムは高いトークン消費と冗長なエラー訂正という2つの非効率さに悩まされている。
これらの問題に対処するため,LLMを用いたタスクプランニングを3つの異なるフェーズ(プランサンプリング,アクションツリー構築,グラウンドド決定)に再編成するツリープランナーを提案する。
Tree-Plannerは、実行前にLSMを使用して潜在的な計画のセットをサンプリングし、次にそれらのアグリゲーションを使用してアクションツリーを形成する。
最後に、LLMは、リアルタイムな環境情報を考慮して、木上でトップダウンの意思決定プロセスを実行する。
実験の結果,Tree-Plannerは高い効率を保ちながら最先端のパフォーマンスを実現することがわかった。
LLMクエリを1つのプランサンプリングコールと複数のグラウンド決定コールに分解することで、プロンプトのかなりの部分が繰り返し消費されることが少なくなる。
その結果、それまでの最高のパフォーマンスモデルと比較してトークンの消費量は92.2%削減された。
さらに、必要に応じてアクションツリーのバックトラックを有効にすることで、修正プロセスはより柔軟になり、誤り訂正の40.5%が減少する。
関連論文リスト
- Graph-Structured Speculative Decoding [52.94367724136063]
投機的復号化は、大規模言語モデルの推論を加速する有望な手法として登場した。
本稿では, 有向非巡回グラフ(DAG)を応用して, 起案された仮説を管理する革新的な手法を提案する。
我々は1.73$times$から1.96$times$に顕著なスピードアップを観察し、標準投機的復号法を大幅に上回った。
論文 参考訳(メタデータ) (2024-07-23T06:21:24Z) - Latent Logic Tree Extraction for Event Sequence Explanation from LLMs [19.90330712436838]
医療やロボティクスなどの現代のハイテイクシステムは、しばしば巨大なストリーミングイベントシーケンスを生成する。
我々のゴールは、Large Language Models (LLMs) から論理木に基づく説明を引き出すための効率的なプラグイン・アンド・プレイツールを設計し、観測された各イベントシーケンスに対するカスタマイズされた洞察を提供することです。
オンライン設定では、ローカルに構築された軽量なモデルが、数回だけ繰り返して、各シーケンスのLSMから最も関連性の高いルールを反復的に抽出します。
論文 参考訳(メタデータ) (2024-06-03T09:10:42Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - When is Tree Search Useful for LLM Planning? It Depends on the Discriminator [15.75807429396126]
大規模言語モデル(LLM)は、ジェネレータ、識別器、計画方法という3つのコンポーネントを持つ言語エージェントフレームワークの下で、多段階の問題を解決する。
本稿では,先進的な計画手法を用いて,識別精度がエージェント全体の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2024-02-16T18:45:58Z) - Consolidating Trees of Robotic Plans Generated Using Large Language
Models to Improve Reliability [6.4111574364474215]
LLM(Large Language Models)の固有の確率論的性質は、予測不可能な要素を導入している。
本稿では,多様な現実の要求やシナリオに対して,適切なロボットタスク計画を作成することを目的とした,革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-15T18:01:59Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Tree Prompting: Efficient Task Adaptation without Fine-Tuning [112.71020326388029]
Tree Promptingはプロンプトの決定ツリーを構築し、複数のLMコールをリンクしてタスクを解決する。
分類データセットの実験により、Tree Promptingは競合するメソッドよりも精度が向上し、微調整と競合することが示された。
論文 参考訳(メタデータ) (2023-10-21T15:18:22Z) - From Cooking Recipes to Robot Task Trees -- Improving Planning
Correctness and Task Efficiency by Leveraging LLMs with a Knowledge Network [6.4111574364474215]
提案手法はまず,大規模言語モデル (LLM) を用いてレシピを検索し,次に細調整した GPT-3 を用いてタスクツリーに変換する。
パイプラインはタスクツリー検索を用いてLCM出力の不確実性と信頼性の低い特徴を緩和する。
評価結果は,タスク計画の精度と効率性において,従来よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-17T07:09:16Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。