論文の概要: Tree-Planner: Efficient Close-loop Task Planning with Large Language
Models
- arxiv url: http://arxiv.org/abs/2310.08582v1
- Date: Thu, 12 Oct 2023 17:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 08:14:32.648139
- Title: Tree-Planner: Efficient Close-loop Task Planning with Large Language
Models
- Title(参考訳): Tree-Planner: 大規模言語モデルを用いた効率的なクローズループタスク計画
- Authors: Mengkang Hu, Yao Mu, Xinmiao Yu, Mingyu Ding, Shiguang Wu, Wenqi Shao,
Qiguang Chen, Bin Wang, Yu Qiao, Ping Luo
- Abstract要約: Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 65.16099990195016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies close-loop task planning, which refers to the process of
generating a sequence of skills (a plan) to accomplish a specific goal while
adapting the plan based on real-time observations. Recently, prompting Large
Language Models (LLMs) to generate actions iteratively has become a prevalent
paradigm due to its superior performance and user-friendliness. However, this
paradigm is plagued by two inefficiencies: high token consumption and redundant
error correction, both of which hinder its scalability for large-scale testing
and applications. To address these issues, we propose Tree-Planner, which
reframes task planning with LLMs into three distinct phases: plan sampling,
action tree construction, and grounded deciding. Tree-Planner starts by using
an LLM to sample a set of potential plans before execution, followed by the
aggregation of them to form an action tree. Finally, the LLM performs a
top-down decision-making process on the tree, taking into account real-time
environmental information. Experiments show that Tree-Planner achieves
state-of-the-art performance while maintaining high efficiency. By decomposing
LLM queries into a single plan-sampling call and multiple grounded-deciding
calls, a considerable part of the prompt are less likely to be repeatedly
consumed. As a result, token consumption is reduced by 92.2% compared to the
previously best-performing model. Additionally, by enabling backtracking on the
action tree as needed, the correction process becomes more flexible, leading to
a 40.5% decrease in error corrections. Project page:
https://tree-planner.github.io/
- Abstract(参考訳): 本稿では,実時間観測に基づいて計画に適応しながら,特定の目標を達成するための一連のスキル(計画)を生成する過程を,クローズループタスクプランニングと呼ぶ。
近年,Large Language Models (LLM) の動作を反復的に生成するよう促すことが,パフォーマンスとユーザフレンドリさの面で広く普及している。
しかし、このパラダイムは高いトークン消費と冗長なエラー訂正という2つの非効率さに悩まされている。
これらの問題に対処するため,LLMを用いたタスクプランニングを3つの異なるフェーズ(プランサンプリング,アクションツリー構築,グラウンドド決定)に再編成するツリープランナーを提案する。
tree-plannerは、llmを使用して実行前に潜在的なプランのセットをサンプリングし、それらを集約してアクションツリーを形成する。
最後に、LLMは、リアルタイム環境情報を考慮したトップダウン決定プロセスを実行する。
実験の結果,Tree-Plannerは高い効率を保ちながら最先端のパフォーマンスを実現することがわかった。
LLMクエリを1つのプランサンプリングコールと複数のグラウンド決定コールに分解することで、プロンプトのかなりの部分が繰り返し消費されることが少なくなる。
その結果、トークンの消費は、以前のベストパフォーマンスモデルと比較して92.2%削減される。
さらに、必要に応じてアクションツリーのバックトラッキングを有効にすることで、修正プロセスが柔軟になり、エラー訂正が40.5%削減される。
プロジェクトページ: https://tree-planner.github.io/
関連論文リスト
- Recursive Speculative Decoding: Accelerating LLM Inference via Sampling
Without Replacement [11.91629418177851]
投機的復号法(英: Speculative decoding)は、大規模言語モデルの推論・加速度法である。
近年の作業では、草稿の伐採によってこの方法が進歩している。
再帰的投機的復号法(Recursive Speculative Decoding:RSD)を提案する。
論文 参考訳(メタデータ) (2024-02-21T22:57:49Z) - When is Tree Search Useful for LLM Planning? It Depends on the
Discriminator [16.697504835420336]
大規模言語モデル(LLM)は、ジェネレータ、識別器、計画方法という3つのコンポーネントを持つ言語エージェントフレームワークの下で、多段階の問題を解決する。
本稿では,2つの高度な計画手法,反復的修正と木探索の実用性について検討する。
これらの2つの手法またはより単純な手法を用いて、判別精度がエージェント全体の性能に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-02-16T18:45:58Z) - Consolidating Trees of Robotic Plans Generated Using Large Language
Models to Improve Reliability [6.4111574364474215]
LLM(Large Language Models)の固有の確率論的性質は、予測不可能な要素を導入している。
本稿では,多様な現実の要求やシナリオに対して,適切なロボットタスク計画を作成することを目的とした,革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-15T18:01:59Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [136.70875041342686]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Tree Prompting: Efficient Task Adaptation without Fine-Tuning [112.71020326388029]
Tree Promptingはプロンプトの決定ツリーを構築し、複数のLMコールをリンクしてタスクを解決する。
分類データセットの実験により、Tree Promptingは競合するメソッドよりも精度が向上し、微調整と競合することが示された。
論文 参考訳(メタデータ) (2023-10-21T15:18:22Z) - From Cooking Recipes to Robot Task Trees -- Improving Planning
Correctness and Task Efficiency by Leveraging LLMs with a Knowledge Network [6.4111574364474215]
提案手法はまず,大規模言語モデル (LLM) を用いてレシピを検索し,次に細調整した GPT-3 を用いてタスクツリーに変換する。
パイプラインはタスクツリー検索を用いてLCM出力の不確実性と信頼性の低い特徴を緩和する。
評価結果は,タスク計画の精度と効率性において,従来よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-09-17T07:09:16Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - Divide-and-Conquer Monte Carlo Tree Search For Goal-Directed Planning [78.65083326918351]
暗黙的な逐次計画の仮定に代わるものを検討する。
本稿では,最適計画の近似を行うため,Divide-and-Conquer Monte Carlo Tree Search (DC-MCTS)を提案する。
計画順序に対するこのアルゴリズム的柔軟性は,グリッドワールドにおけるナビゲーションタスクの改善に繋がることを示す。
論文 参考訳(メタデータ) (2020-04-23T18:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。