論文の概要: Planning with Large Language Models via Corrective Re-prompting
- arxiv url: http://arxiv.org/abs/2211.09935v1
- Date: Thu, 17 Nov 2022 23:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:39:54.810964
- Title: Planning with Large Language Models via Corrective Re-prompting
- Title(参考訳): 修正再入力による大規模言語モデルの構築
- Authors: Shreyas Sundara Raman, Vanya Cohen, Eric Rosen, Ifrah Idrees, David
Paulius and Stefanie Tellex
- Abstract要約: 大規模言語モデル(LLM)から実行可能なプランを抽出するためのプロンプトベースの戦略を提案する。
提案手法では,プレコンディショニングエラーを用いることで,実行可能性や計画の意味的正当性を向上させるとともに,クエリ処理に必要な再試行回数を削減する。
- 参考スコア(独自算出の注目度): 10.669356647718194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting the common sense knowledge present in Large Language Models (LLMs)
offers a path to designing intelligent, embodied agents. Related works have
queried LLMs with a wide-range of contextual information, such as goals, sensor
observations and scene descriptions, to generate high-level action plans for
specific tasks; however these approaches often involve human intervention or
additional machinery to enable sensor-motor interactions. In this work, we
propose a prompting-based strategy for extracting executable plans from an LLM,
which leverages a novel and readily-accessible source of information:
precondition errors. Our approach assumes that actions are only afforded
execution in certain contexts, i.e., implicit preconditions must be met for an
action to execute (e.g., a door must be unlocked to open it), and that the
embodied agent has the ability to determine if the action is/is not executable
in the current context (e.g., detect if a precondition error is present). When
an agent is unable to execute an action, our approach re-prompts the LLM with
precondition error information to extract an executable corrective action to
achieve the intended goal in the current context. We evaluate our approach in
the VirtualHome simulation environment on 88 different tasks and 7 scenes. We
evaluate different prompt templates and compare to methods that naively
re-sample actions from the LLM. Our approach, using precondition errors,
improves executability and semantic correctness of plans, while also reducing
the number of re-prompts required when querying actions.
- Abstract(参考訳): 大規模言語モデル(llms)に存在する常識知識の抽出は、インテリジェントで具体化されたエージェントを設計するための道を提供する。
関連する研究は、目標、センサー観測、シーン記述などの幅広いコンテキスト情報を用いてLCMをクエリして、特定のタスクのための高レベルなアクションプランを生成するが、これらのアプローチは、センサーとモーターの相互作用を可能にするための人間の介入や追加の機械を含むことが多い。
本研究では,新しい情報ソースであるプレコンディショニングエラーを利用したLCMから実行可能なプランを抽出するためのプロンプトベースの戦略を提案する。
私たちのアプローチでは、アクションは特定のコンテキストでのみ実行可能である、すなわち、暗黙の前提条件は実行すべきアクション(例えば、ドアを開かなければならない)のために満たされなければならない、そして具体化されたエージェントは、現在のコンテキストでアクションが実行可能かどうかを判断する能力を持っている(例えば、事前条件エラーがあるかどうかを検出する)。
エージェントがアクションを実行できない場合、我々のアプローチはLCMに事前条件エラー情報を加えて実行可能修正アクションを抽出し、現在のコンテキストで目的を達成する。
88の異なるタスクと7つのシーンで仮想ホームシミュレーション環境におけるアプローチを評価した。
我々は,異なるプロンプトテンプレートを評価し,LLMの動作を鼻で再サンプリングする手法と比較した。
プリコンディショニングエラーを用いることで,計画の実行可能性と意味的正確性を向上させると同時に,アクションをクエリする上で必要な再プロンプト数を削減する。
関連論文リスト
- Mining Action Rules for Defect Reduction Planning [14.40839500239476]
ブラックボックスモデルを使わずに欠陥低減計画を生成するための,非実効的アクティオンルールマイニング手法であるCounterACTを導入する。
我々は,9つのソフトウェアプロジェクトにおいて,CounterACTの有効性を,元のアクションルールマイニングアルゴリズムと6つの確立された欠陥低減手法と比較した。
その結果、競合するアプローチと比較して、CounterACTの説明可能なプランはリリースレベルで高いオーバーラップスコアを得ることができた。
論文 参考訳(メタデータ) (2024-05-22T15:31:09Z) - Yell At Your Robot: Improving On-the-Fly from Language Corrections [84.09578841663195]
高いレベルのポリシーは、人間のフィードバックによって言語修正の形で容易に管理できることを示す。
このフレームワークは、ロボットがリアルタイムの言語フィードバックに迅速に適応するだけでなく、このフィードバックを反復的なトレーニングスキームに組み込むことを可能にする。
論文 参考訳(メタデータ) (2024-03-19T17:08:24Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Probabilistically Correct Language-based Multi-Robot Planning using Conformal Prediction [11.614036749291216]
本稿では,S-ATLAS for Safe plAnning for Teams of Language-instructed Agentsを提案する。
提案したプランナは,計画実行が成功すると仮定して,ユーザ指定のタスク成功率を達成可能であることを示す。
我々は,本手法が計算効率が高く,ヘルプレートが低いことを示す関連研究との比較実験を行った。
論文 参考訳(メタデータ) (2024-02-23T15:02:44Z) - Introspective Planning: Aligning Robots' Uncertainty with Inherent Task Ambiguity [0.659529078336196]
大きな言語モデル(LLM)は高度な推論能力を示し、ロボットは自然言語の指示を理解することができる。
LLMの幻覚は、ユーザーの目標と不一致の計画を実行するロボットや、極端な場合、安全ではない。
本稿では,ロボットタスク実行のための不確実性を考慮した計画作成において,LLMを指導する体系的手法としての内省的計画の概念を考察する。
論文 参考訳(メタデータ) (2024-02-09T16:40:59Z) - Consolidating Trees of Robotic Plans Generated Using Large Language
Models to Improve Reliability [6.4111574364474215]
LLM(Large Language Models)の固有の確率論的性質は、予測不可能な要素を導入している。
本稿では,多様な現実の要求やシナリオに対して,適切なロボットタスク計画を作成することを目的とした,革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-15T18:01:59Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Correcting Robot Plans with Natural Language Feedback [88.92824527743105]
ロボットの修正のための表現的かつ柔軟なツールとして自然言語を探索する。
これらの変換により、ユーザは目標を正し、ロボットの動きを更新し、計画上のエラーから回復できる。
本手法により,シミュレーション環境や実環境において,複数の制約を合成し,未知のシーン,オブジェクト,文に一般化することが可能となる。
論文 参考訳(メタデータ) (2022-04-11T15:22:43Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。