論文の概要: DoReMi: Grounding Language Model by Detecting and Recovering from
Plan-Execution Misalignment
- arxiv url: http://arxiv.org/abs/2307.00329v2
- Date: Thu, 24 Aug 2023 10:25:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 17:30:33.907635
- Title: DoReMi: Grounding Language Model by Detecting and Recovering from
Plan-Execution Misalignment
- Title(参考訳): DoReMi:計画実行ミスソーシングの検出と復元による接地言語モデル
- Authors: Yanjiang Guo, Yen-Jen Wang, Lihan Zha, Zheyuan Jiang, Jianyu Chen
- Abstract要約: DoReMiは、計画と実行間のミスアライメントの検出とリカバリを可能にする。
提案手法はタスク成功率の向上とタスク完了時間の短縮につながる可能性がある。
- 参考スコア(独自算出の注目度): 11.572444827974852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models encode a vast amount of semantic knowledge and possess
remarkable understanding and reasoning capabilities. Previous research has
explored how to ground language models in robotic tasks to ensure that the
sequences generated by the language model are both logically correct and
practically executable. However, low-level execution may deviate from the
high-level plan due to environmental perturbations or imperfect controller
design. In this paper, we propose DoReMi, a novel language model grounding
framework that enables immediate Detection and Recovery from Misalignments
between plan and execution. Specifically, LLMs are leveraged for both planning
and generating constraints for planned steps. These constraints can indicate
plan-execution misalignments and we use a vision question answering (VQA) model
to check constraints during low-level skill execution. If certain misalignment
occurs, our method will call the language model to re-plan in order to recover
from misalignments. Experiments on various complex tasks including robot arms
and humanoid robots demonstrate that our method can lead to higher task success
rates and shorter task completion times. Videos of DoReMi are available at
https://sites.google.com/view/doremi-paper.
- Abstract(参考訳): 大きな言語モデルは膨大な量の意味知識をエンコードし、顕著な理解と推論能力を持っている。
従来の研究では、言語モデルによって生成されたシーケンスが論理的に正しいことと現実的に実行可能であることを保証するために、ロボットタスクで言語モデルを構築する方法が検討されてきた。
しかし、環境変動や不完全なコントローラ設計のため、低レベルの実行は高レベルの計画から逸脱する可能性がある。
本稿では,計画と実行の間の不一致を即時に検出し,リカバリするための新しい言語モデル基盤フレームワークであるdoremiを提案する。
具体的には、LLMは計画ステップの計画と生成の両方に利用されます。
これらの制約は計画実行上のミスアライメントを示し、低レベルのスキル実行中に制約をチェックするために視覚質問応答(VQA)モデルを使用します。
もしある誤認識が発生した場合、我々の手法は、誤認識から回復するために言語モデルを呼び出す。
ロボットアームやヒューマノイドロボットを含む様々な複雑なタスクの実験により、より高いタスク成功率とより短いタスク完了時間をもたらすことが示されている。
DoReMiのビデオはhttps://sites.google.com/view/doremi-paperで見ることができる。
関連論文リスト
- Plan-Seq-Learn: Language Model Guided RL for Solving Long Horizon Robotics Tasks [50.27313829438866]
Plan-Seq-Learn (PSL) は、抽象言語と学習した低レベル制御の間のギャップを埋めるためにモーションプランニングを使用するモジュラーアプローチである。
PSLは85%以上の成功率、言語ベース、古典的、エンドツーエンドのアプローチを達成している。
論文 参考訳(メタデータ) (2024-05-02T17:59:31Z) - Grounding Language Plans in Demonstrations Through Counterfactual Perturbations [25.19071357445557]
物理領域におけるLarge Language Models(LLM)の常識的推論は、具体化されたAIにとって重要な問題でありながら未解決である。
提案手法は,2次元ナビゲーションによる模倣学習の解釈性と反応性を向上し,シミュレーションおよび実ロボット操作タスクを実現する。
論文 参考訳(メタデータ) (2024-03-25T19:04:59Z) - Symbolic Planning and Code Generation for Grounded Dialogue [78.48668501764385]
大規模言語モデル(LLM)は、テキストとコードの両方の処理と生成に優れる。
本稿では,LLMをシンボリックプランナと接地コード実行で構成することで,欠点に対処する,モジュール型で解釈可能な接地対話システムを提案する。
我々のシステムは、人間の評価におけるタスク成功率を最も困難な環境で56%から69%に改善するなど、従来の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-26T04:22:23Z) - Ground Manipulator Primitive Tasks to Executable Actions using Large
Language Models [13.827349677538352]
大規模言語モデル(LLM)を用いた低レベル動作ロボットのためのマニピュレータ・プリミティブ・タスクを基礎とする新しい手法を提案する。
このようにして、LLMはハイブリッド制御のための位置/力のセットポイントを生成することができる。
論文 参考訳(メタデータ) (2023-08-13T16:52:36Z) - Embodied Task Planning with Large Language Models [86.63533340293361]
本研究では,現場制約を考慮した地上計画のための具体的タスクにおけるTAsk Planing Agent (TaPA)を提案する。
推論の際には,オープンボキャブラリオブジェクト検出器を様々な場所で収集された多視点RGB画像に拡張することにより,シーン内の物体を検出する。
実験の結果,我々のTaPAフレームワークから生成されたプランは,LLaVAやGPT-3.5よりも大きなマージンで高い成功率が得られることがわかった。
論文 参考訳(メタデータ) (2023-07-04T17:58:25Z) - AutoTAMP: Autoregressive Task and Motion Planning with LLMs as Translators and Checkers [20.857692296678632]
人間とロボットの効果的なインタラクションには、ロボットは複雑な長期的タスクを理解し、計画し、実行する必要がある。
大規模言語モデルの最近の進歩は、自然言語をロボットのアクションシーケンスに変換することを約束している。
本研究では,複雑なタスク領域において,LLMをプランナとして用いる手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-10T21:58:29Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。