論文の概要: AutoTAMP: Autoregressive Task and Motion Planning with LLMs as
Translators and Checkers
- arxiv url: http://arxiv.org/abs/2306.06531v1
- Date: Sat, 10 Jun 2023 21:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:25:12.200577
- Title: AutoTAMP: Autoregressive Task and Motion Planning with LLMs as
Translators and Checkers
- Title(参考訳): autotamp: llmを翻訳者とチェッカーとして用いた自動回帰タスクとモーションプランニング
- Authors: Yongchao Chen, Jacob Arkin, Yang Zhang, Nicholas Roy, Chuchu Fan
- Abstract要約: 人間とロボットの効果的なインタラクションには、ロボットは複雑な長期的タスクを理解し、計画し、実行する必要がある。
大規模言語モデルの最近の進歩は、自然言語をロボットのアクションシーケンスに変換することを約束している。
本研究では,複雑なタスク領域において,LLMをプランナとして用いる手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 27.99017469233481
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: For effective human-robot interaction, robots need to understand, plan, and
execute complex, long-horizon tasks described by natural language. The recent
and remarkable advances in large language models (LLMs) have shown promise for
translating natural language into robot action sequences for complex tasks.
However, many existing approaches either translate the natural language
directly into robot trajectories, or factor the inference process by
decomposing language into task sub-goals, then relying on a motion planner to
execute each sub-goal. When complex environmental and temporal constraints are
involved, inference over planning tasks must be performed jointly with motion
plans using traditional task-and-motion planning (TAMP) algorithms, making such
factorization untenable. Rather than using LLMs to directly plan task
sub-goals, we instead perform few-shot translation from natural language task
descriptions to an intermediary task representation that can then be consumed
by a TAMP algorithm to jointly solve the task and motion plan. To improve
translation, we automatically detect and correct both syntactic and semantic
errors via autoregressive re-prompting, resulting in significant improvements
in task completion. We show that our approach outperforms several methods using
LLMs as planners in complex task domains.
- Abstract(参考訳): 人間とロボットの効果的なインタラクションには、自然言語で記述された複雑な長期タスクを理解し、計画し、実行する必要がある。
近年の大規模言語モデル(llms)の進歩は、複雑なタスクのために自然言語をロボットのアクションシーケンスに変換することを約束している。
しかし、既存の多くのアプローチは、自然言語を直接ロボット軌道に変換するか、あるいは言語をタスクサブゴールに分解して推論プロセスを分解し、各サブゴールを実行するためにモーションプランナーに依存する。
複雑な環境と時間的制約が伴う場合、従来のタスク・アンド・モーション・プランニング(TAMP)アルゴリズムを用いた動作計画と協調して計画タスクの推測を行い、そのような分解を抑えられないようにする。
LLMを使ってタスクサブゴールを直接計画するのではなく、自然言語タスク記述から中間タスク表現への数ショットの変換を行い、TAMPアルゴリズムによってタスクと動作プランを共同で解決する。
翻訳を改善するために,自動回帰的再プロンプトによる構文的誤りと意味的誤りの両方を自動的に検出し,訂正し,タスク補完を大幅に改善する。
提案手法は,複雑なタスク領域のプランナーとしてllmを用いた手法よりも優れていることを示す。
関連論文リスト
- COHERENT: Collaboration of Heterogeneous Multi-Robot System with Large Language Models [49.24666980374751]
COHERENTは、異種マルチロボットシステムの協調のための新しいLCMベースのタスク計画フレームワークである。
提案-実行-フィードバック-調整機構は,個々のロボットに対して動作を分解・割り当てするように設計されている。
実験の結果,我々の研究は,成功率と実行効率の面で,従来の手法をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-23T15:53:41Z) - Policy Adaptation via Language Optimization: Decomposing Tasks for Few-Shot Imitation [49.43094200366251]
本稿では,タスク分解のセマンティック理解を生かした,未確認タスクへの数発適応のための新しいアプローチを提案する。
我々の手法であるPALO(Policy Adaptation via Language Optimization)は,タスクのいくつかの実演と,提案する言語分解とを組み合わせる。
PALOは、実世界の長期・多層的なタスクを一貫して完了することができ、事前訓練されたジェネラリスト政策の状況よりも優れています。
論文 参考訳(メタデータ) (2024-08-29T03:03:35Z) - Scaling Up Natural Language Understanding for Multi-Robots Through the Lens of Hierarchy [8.180994118420053]
長期計画には不確実性蓄積、計算複雑性、遅延報酬、不完全情報といった課題が伴う。
本研究では,タスク階層を人間の指示から活用し,マルチロボット計画を容易にする手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T14:46:13Z) - Empowering Large Language Models on Robotic Manipulation with Affordance Prompting [23.318449345424725]
大規模な言語モデルは、制御シーケンスを適切に生成することで物理世界と相互作用することができない。
既存のLLMベースのアプローチでは、事前定義されたスキルや事前訓練されたサブ政治に頼ることでこの問題を回避することができる。
サブタスクプランナとモーションコントローラの両方をLLM+A(ffordance)と呼ぶフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-17T03:06:32Z) - Natural Language as Policies: Reasoning for Coordinate-Level Embodied Control with LLMs [7.746160514029531]
ロボットのタスク計画問題に対処するLLMによる実験結果を示す。
提案手法はタスクとシーンオブジェクトのテキスト記述を取得し,自然言語推論によるタスクプランニングを定式化する。
提案手法はマルチモーダル・プロンプト・シミュレーション・ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2024-03-20T17:58:12Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。