論文の概要: Describe, Explain, Plan and Select: Interactive Planning with Large
Language Models Enables Open-World Multi-Task Agents
- arxiv url: http://arxiv.org/abs/2302.01560v1
- Date: Fri, 3 Feb 2023 06:06:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 17:13:17.225462
- Title: Describe, Explain, Plan and Select: Interactive Planning with Large
Language Models Enables Open-World Multi-Task Agents
- Title(参考訳): Describe, Explain, Plan and Select: オープンワールドマルチタスクエージェントを実現する大規模言語モデルによる対話型プランニング
- Authors: Zihao Wang, Shaofei Cai, Anji Liu, Xiaojian Ma, Yitao Liang
- Abstract要約: DEPS(Describe, Explain, Plan and Select)は,大規模言語モデル(LLM)に基づく対話型計画手法である。
私たちの実験は、70以上のMinecraftタスクをしっかりと達成し、全体的なパフォーマンスをほぼ2倍にするという、最初のマルチタスクエージェントのマイルストーンです。
- 参考スコア(独自算出の注目度): 14.228723084543605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of planning in Minecraft, a popular,
democratized yet challenging open-ended environment for developing multi-task
embodied agents. We've found two primary challenges of empowering such agents
with planning: 1) planning in an open-ended world like Minecraft requires
precise and multi-step reasoning due to the long-term nature of the tasks, and
2) as vanilla planners do not consider the proximity to the current agent when
ordering parallel sub-goals within a complicated plan, the resulting plan could
be inefficient. To this end, we propose "Describe, Explain, Plan and Select"
(DEPS), an interactive planning approach based on Large Language Models (LLMs).
Our approach helps with better error correction from the feedback during the
long-haul planning, while also bringing the sense of proximity via goal
Selector, a learnable module that ranks parallel sub-goals based on the
estimated steps of completion and improves the original plan accordingly. Our
experiments mark the milestone of the first multi-task agent that can robustly
accomplish 70+ Minecraft tasks and nearly doubles the overall performances.
Finally, the ablation and exploratory studies detail how our design beats the
counterparts and provide a promising update on the $\texttt{ObtainDiamond}$
grand challenge with our approach. The code is released at
https://github.com/CraftJarvis/MC-Planner.
- Abstract(参考訳): 本稿では,マルチタスクの具体化エージェントを開発する上で,ポピュラーで民主的で挑戦的なオープンエンド環境であるMinecraftの計画問題について検討する。
このようなエージェントを計画に力づける上での2つの大きな課題を見つけました
1)minecraftのようなオープンな世界での計画には,タスクの長期的性質から,正確かつ多段階的な推論が必要となる。
2)バニラプランナーは,複雑な計画内で並列サブゴールを発注する場合,現在のエージェントに近づかないため,計画の効率は低下する可能性がある。
そこで本研究では,大規模言語モデル(llms)に基づく対話型計画手法であるdescribe, explain, plan and select (deps)を提案する。
提案手法は,長期計画中のフィードバックによる誤り訂正に役立ち,目標選択モジュールによる近接感を学習可能なモジュールとして提供し,完了推定ステップに基づいて並列サブゴールをランク付けし,それに従って元の計画を改善する。
私たちの実験は、70以上のMinecraftタスクをしっかりと達成し、全体的なパフォーマンスをほぼ2倍にするという、最初のマルチタスクエージェントのマイルストーンです。
最後に、アブレーションと探索研究は、我々の設計がどのようにその設計に勝っているかを詳述し、我々のアプローチに対する大きな挑戦である$\texttt{ObtainDiamond}の有望なアップデートを提供する。
コードはhttps://github.com/craftjarvis/mc-plannerでリリースされる。
関連論文リスト
- SheetAgent: A Generalist Agent for Spreadsheet Reasoning and
Manipulation via Large Language Models [42.66860424511231]
大規模言語モデル (LLM) は近年, スプレッドシートの自動操作のために試みられているが, 現実的なタスクではまだ研究されていない。
我々は、推論に依存した操作を伴う長い水平および複数カテゴリのタスクを特徴付けるベンチマークである$textbfSheetRM$を紹介した。
さらに,LLMのパワーを利用した新しい自律エージェントであるtextbfSheetAgent$を提案する。
論文 参考訳(メタデータ) (2024-03-06T11:48:08Z) - Consolidating Trees of Robotic Plans Generated Using Large Language
Models to Improve Reliability [6.4111574364474215]
LLM(Large Language Models)の固有の確率論的性質は、予測不可能な要素を導入している。
本稿では,多様な現実の要求やシナリオに対して,適切なロボットタスク計画を作成することを目的とした,革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-15T18:01:59Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [136.70875041342686]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Interactive Task Planning with Language Models [97.86399877812923]
対話型ロボットフレームワークは、長期のタスクプランニングを達成し、実行中であっても、新しい目標や異なるタスクに容易に一般化することができる。
最近の大規模言語モデルに基づくアプローチは、よりオープンな計画を可能にするが、多くの場合、重いプロンプトエンジニアリングやドメイン固有の事前訓練されたモデルを必要とする。
本稿では,言語モデルを用いた対話型タスクプランニングを実現するためのシンプルなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-16T17:59:12Z) - Tree-Planner: Efficient Close-loop Task Planning with Large Language
Models [65.16099990195016]
Tree-Plannerは、大きな言語モデルでタスクプランニングを3つの異なるフェーズに再構成する。
Tree-Plannerは高い効率を維持しながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-12T17:59:50Z) - AdaPlanner: Adaptive Planning from Feedback with Language Models [56.367020818139665]
大規模言語モデル(LLM)は、最近、シーケンシャルな意思決定タスクの自律的エージェントとして機能する可能性を実証している。
本研究では,LLMエージェントが環境フィードバックに応じて自己生成計画を適応的に改善することのできるクローズドループアプローチであるAdaPlannerを提案する。
幻覚を緩和するために,様々なタスク,環境,エージェント機能にまたがる計画生成を容易にするコードスタイルのLCMプロンプト構造を開発した。
論文 参考訳(メタデータ) (2023-05-26T05:52:27Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large
Language Models [27.318186938382233]
本研究では,大規模言語モデル(LLM)を具体化エージェントのプランナーとして用いることに焦点を当てた。
そこで本研究では,大規模言語モデルのパワーを活かして少数ショットプランニングを行う新しい手法 LLM-Planner を提案する。
論文 参考訳(メタデータ) (2022-12-08T05:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。