論文の概要: CAPE: Corrective Actions from Precondition Errors using Large Language
Models
- arxiv url: http://arxiv.org/abs/2211.09935v3
- Date: Sat, 9 Mar 2024 13:53:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 17:59:41.273054
- Title: CAPE: Corrective Actions from Precondition Errors using Large Language
Models
- Title(参考訳): cape: 大規模言語モデルを用いた前提条件エラーの修正動作
- Authors: Shreyas Sundara Raman, Vanya Cohen, Ifrah Idrees, Eric Rosen, Ray
Mooney, Stefanie Tellex and David Paulius
- Abstract要約: 本研究では,計画中の条件誤差を解決するための修正行動を提案する新しい手法を提案する。
CAPEは、アクション前提条件からの少数ショット推論を活用することにより、生成されたプランの品質を改善する。
そこでCAPEはSayCanに比べて76.49%の精度でタスク計画の正しさを向上する。
- 参考スコア(独自算出の注目度): 8.547766794082184
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting commonsense knowledge from a large language model (LLM) offers a
path to designing intelligent robots. Existing approaches that leverage LLMs
for planning are unable to recover when an action fails and often resort to
retrying failed actions, without resolving the error's underlying cause. We
propose a novel approach (CAPE) that attempts to propose corrective actions to
resolve precondition errors during planning. CAPE improves the quality of
generated plans by leveraging few-shot reasoning from action preconditions. Our
approach enables embodied agents to execute more tasks than baseline methods
while ensuring semantic correctness and minimizing re-prompting. In
VirtualHome, CAPE generates executable plans while improving a human-annotated
plan correctness metric from 28.89% to 49.63% over SayCan. Our improvements
transfer to a Boston Dynamics Spot robot initialized with a set of skills
(specified in language) and associated preconditions, where CAPE improves the
correctness metric of the executed task plans by 76.49% compared to SayCan. Our
approach enables the robot to follow natural language commands and robustly
recover from failures, which baseline approaches largely cannot resolve or
address inefficiently.
- Abstract(参考訳): 大型言語モデル(LLM)からコモンセンス知識を抽出することは、インテリジェントなロボットを設計するための道筋を提供する。
LLMを計画に活用する既存のアプローチは、アクションが失敗したときに回復できず、エラーの根本原因を解決することなく、しばしば失敗したアクションを再試行する。
計画中の前提条件エラーを解決するための修正措置を提案する新しいアプローチ(cape)を提案する。
CAPEは、アクション前提条件からの少数ショット推論を活用することにより、生成されたプランの品質を改善する。
本手法は, エージェントがベースラインメソッドよりも多くのタスクを実行し, 意味的正確性を確保しつつ, 再プロポーティングを最小化することを可能にする。
仮想ホームでは、ケープは人間の注釈による計画の正しさを28.89%から49.63%に改善しながら実行可能な計画を生成する。
私たちの改良はboston dynamics spotロボットに(言語で特定された)一連のスキルと関連する前提条件で初期化され、capeはsaycanと比較して実行されたタスクプランの正しい測定基準を76.49%改善しました。
我々のアプローチは、ロボットが自然言語コマンドに従い、失敗から頑健に回復することを可能にする。
関連論文リスト
- Mining Action Rules for Defect Reduction Planning [14.40839500239476]
ブラックボックスモデルを使わずに欠陥低減計画を生成するための,非実効的アクティオンルールマイニング手法であるCounterACTを導入する。
我々は,9つのソフトウェアプロジェクトにおいて,CounterACTの有効性を,元のアクションルールマイニングアルゴリズムと6つの確立された欠陥低減手法と比較した。
その結果、競合するアプローチと比較して、CounterACTの説明可能なプランはリリースレベルで高いオーバーラップスコアを得ることができた。
論文 参考訳(メタデータ) (2024-05-22T15:31:09Z) - Yell At Your Robot: Improving On-the-Fly from Language Corrections [84.09578841663195]
高いレベルのポリシーは、人間のフィードバックによって言語修正の形で容易に管理できることを示す。
このフレームワークは、ロボットがリアルタイムの言語フィードバックに迅速に適応するだけでなく、このフィードバックを反復的なトレーニングスキームに組み込むことを可能にする。
論文 参考訳(メタデータ) (2024-03-19T17:08:24Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - Probabilistically Correct Language-based Multi-Robot Planning using Conformal Prediction [11.614036749291216]
本稿では,S-ATLAS for Safe plAnning for Teams of Language-instructed Agentsを提案する。
提案したプランナは,計画実行が成功すると仮定して,ユーザ指定のタスク成功率を達成可能であることを示す。
我々は,本手法が計算効率が高く,ヘルプレートが低いことを示す関連研究との比較実験を行った。
論文 参考訳(メタデータ) (2024-02-23T15:02:44Z) - Introspective Planning: Aligning Robots' Uncertainty with Inherent Task Ambiguity [0.659529078336196]
大きな言語モデル(LLM)は高度な推論能力を示し、ロボットは自然言語の指示を理解することができる。
LLMの幻覚は、ユーザーの目標と不一致の計画を実行するロボットや、極端な場合、安全ではない。
本稿では,ロボットタスク実行のための不確実性を考慮した計画作成において,LLMを指導する体系的手法としての内省的計画の概念を考察する。
論文 参考訳(メタデータ) (2024-02-09T16:40:59Z) - Consolidating Trees of Robotic Plans Generated Using Large Language
Models to Improve Reliability [6.4111574364474215]
LLM(Large Language Models)の固有の確率論的性質は、予測不可能な要素を導入している。
本稿では,多様な現実の要求やシナリオに対して,適切なロボットタスク計画を作成することを目的とした,革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-15T18:01:59Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Correcting Robot Plans with Natural Language Feedback [88.92824527743105]
ロボットの修正のための表現的かつ柔軟なツールとして自然言語を探索する。
これらの変換により、ユーザは目標を正し、ロボットの動きを更新し、計画上のエラーから回復できる。
本手法により,シミュレーション環境や実環境において,複数の制約を合成し,未知のシーン,オブジェクト,文に一般化することが可能となる。
論文 参考訳(メタデータ) (2022-04-11T15:22:43Z) - Language Models as Zero-Shot Planners: Extracting Actionable Knowledge
for Embodied Agents [111.33545170562337]
自然言語で表現された高レベルなタスクを、選択された実行可能なステップのセットに基底付ける可能性について検討する。
事前学習したLMが十分に大きく、適切に誘導された場合、ハイレベルなタスクを効果的に低レベルな計画に分解できることがわかった。
本稿では,既存の実演の条件を規定し,計画が許容可能な行動に意味的に変換される手順を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。