論文の概要: Integrating Intent Understanding and Optimal Behavior Planning for Behavior Tree Generation from Human Instructions
- arxiv url: http://arxiv.org/abs/2405.07474v2
- Date: Thu, 27 Jun 2024 13:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 19:06:57.363149
- Title: Integrating Intent Understanding and Optimal Behavior Planning for Behavior Tree Generation from Human Instructions
- Title(参考訳): ヒューマンインストラクションからの行動木生成のためのインテント理解と最適行動計画の統合
- Authors: Xinglin Chen, Yishuai Cai, Yunxin Mao, Minglong Li, Wenjing Yang, Weixia Xu, Ji Wang,
- Abstract要約: 動作木(BT)は、人間の指示に従ってタスクを実行するロボットのための適切な制御アーキテクチャである。
本稿では,BT生成のための2段階のフレームワークを提案する。
我々は、一階述語論理における目的と十分に整形された公式を表現し、意図の理解と最適な行動計画を効果的にブリッジする。
- 参考スコア(独自算出の注目度): 5.31484618181979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots executing tasks following human instructions in domestic or industrial environments essentially require both adaptability and reliability. Behavior Tree (BT) emerges as an appropriate control architecture for these scenarios due to its modularity and reactivity. Existing BT generation methods, however, either do not involve interpreting natural language or cannot theoretically guarantee the BTs' success. This paper proposes a two-stage framework for BT generation, which first employs large language models (LLMs) to interpret goals from high-level instructions, then constructs an efficient goal-specific BT through the Optimal Behavior Tree Expansion Algorithm (OBTEA). We represent goals as well-formed formulas in first-order logic, effectively bridging intent understanding and optimal behavior planning. Experiments in the service robot validate the proficiency of LLMs in producing grammatically correct and accurately interpreted goals, demonstrate OBTEA's superiority over the baseline BT Expansion algorithm in various metrics, and finally confirm the practical deployability of our framework. The project website is https://dids-ei.github.io/Project/LLM-OBTEA/.
- Abstract(参考訳): 家庭や産業環境で人間の指示に従ってタスクを実行するロボットは、基本的に適応性と信頼性の両方を必要とする。
振舞い木(BT)は、モジュラリティと反応性のためにこれらのシナリオに対して適切な制御アーキテクチャとして現れる。
しかし、既存のBT生成法は自然言語の解釈を伴わないか、理論上BTの成功を保証できないかのいずれかである。
本稿では,まず大規模言語モデル(LLM)を用いて高レベルの命令から目標を解釈し,次に最適行動木拡張アルゴリズム(OBTEA)を用いて効率的な目標固有BTを構築する,BT生成のための2段階フレームワークを提案する。
我々は、一階述語論理における目的と十分に整形された公式を表現し、意図の理解と最適な行動計画を効果的にブリッジする。
サービスロボットにおける実験は,文法的に正確かつ正確に解釈された目標を生成する上でのLLMの習熟度を検証し,様々な指標においてBT拡張アルゴリズムよりもOCTEAの方が優れていることを実証し,最終的に本フレームワークの実用的展開性を確認した。
プロジェクトのWebサイトはhttps://dids-ei.github.io/Project/LLM-OBTEA/である。
関連論文リスト
- Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - HBTP: Heuristic Behavior Tree Planning with Large Language Model Reasoning [6.2560501421348]
Heuristic Behavior Tree Planning (HBTP) はBT生成のための信頼性と効率的なフレームワークである。
本稿では,BT拡張プロセスと最適計画と満足度計画のための2つの変種を紹介する。
実験では、HBTPの理論的限界を示し、4つのデータセットから得られた結果により、日々のサービスロボット応用における実用性が確認された。
論文 参考訳(メタデータ) (2024-06-03T03:38:56Z) - Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models [31.509994889286183]
我々はLanguage Agent Tree Search (LATS)を紹介した。Language Agent Tree Search (LATS)は、推論、行動、計画において言語モデル(LM)の能力を相乗化する最初の一般的なフレームワークである。
当社のアプローチの重要な特徴は、より意図的で適応的な問題解決メカニズムを提供する外部フィードバック環境の導入である。
LATSは、GPT-4でHumanEval上でプログラミングするための最先端パス@1精度(92.7%)を達成し、GPTによるWebShop上のWebナビゲーションの勾配ベースの微調整に匹敵する勾配なし性能(平均スコア75.9)を示す。
論文 参考訳(メタデータ) (2023-10-06T17:55:11Z) - EmbodiedGPT: Vision-Language Pre-Training via Embodied Chain of Thought [95.37585041654535]
Embodied AIは、ロボットが物理的な環境で長時間のタスクを遂行するためのアクションシーケンスを計画し、実行することができる。
本稿では,EmbodiedGPTを紹介する。EmbodiedGPTは,エンボディドAIのためのエンドツーエンドのマルチモーダル基盤モデルである。
実験は、実施計画、実施制御、視覚的キャプション、視覚的質問応答など、実施されたタスクに対するEmbodiedGPTの有効性を示す。
論文 参考訳(メタデータ) (2023-05-24T11:04:30Z) - Instruct2Act: Mapping Multi-modality Instructions to Robotic Actions
with Large Language Model [63.66204449776262]
Instruct2Actは、ロボット操作タスクのシーケンシャルアクションにマルチモーダル命令をマッピングするフレームワークである。
我々のアプローチは、様々な命令のモダリティや入力タイプを調節する上で、調整可能で柔軟なものである。
我々のゼロショット法は、いくつかのタスクにおいて、最先端の学習ベースのポリシーよりも優れていた。
論文 参考訳(メタデータ) (2023-05-18T17:59:49Z) - Learning to Solve Voxel Building Embodied Tasks from Pixels and Natural
Language Instructions [53.21504989297547]
本研究では,Minecraftのような環境下でのオブジェクト構築作業において,言語モデルと強化学習を組み合わせた新しい手法を提案する。
提案手法は,まず命令から一貫した達成可能なサブゴールのセットを生成し,学習済みのRLポリシーで関連するサブタスクを完了させる。
論文 参考訳(メタデータ) (2022-11-01T18:30:42Z) - ProgPrompt: Generating Situated Robot Task Plans using Large Language
Models [68.57918965060787]
大規模言語モデル(LLM)は、タスク計画中の潜在的な次のアクションを評価するために使用することができる。
本稿では, プログラム型LCMプロンプト構造を用いて, 配置環境間での計画生成機能を実現する。
論文 参考訳(メタデータ) (2022-09-22T20:29:49Z) - Active Inference and Behavior Trees for Reactive Action Planning and
Execution in Robotics [2.040132783511305]
本研究では,動的環境における動的行動計画と実行のための活性推論と行動木(BT)の組み合わせを提案する。
提案手法により、部分的に観測可能な初期状態を扱うことができ、予期せぬ事態に対する古典的なBTの堅牢性を向上させることができる。
論文 参考訳(メタデータ) (2020-11-19T10:24:41Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - Interpretable MTL from Heterogeneous Domains using Boosted Tree [8.095372074268685]
マルチタスク学習(MTL)は,複数のタスクの一般化性能の向上を目的としている。
本稿では,増木理論に倣って,二段階法を提案する。
ベンチマークと実世界のデータセットによる実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2020-03-16T08:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。