論文の概要: Nl2Hltl2Plan: Scaling Up Natural Language Understanding for Multi-Robots Through Hierarchical Temporal Logic Task Representation
- arxiv url: http://arxiv.org/abs/2408.08188v3
- Date: Wed, 04 Dec 2024 02:44:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 11:46:53.840344
- Title: Nl2Hltl2Plan: Scaling Up Natural Language Understanding for Multi-Robots Through Hierarchical Temporal Logic Task Representation
- Title(参考訳): Nl2Hltl2Plan:階層型時間論理タスク表現によるマルチロボットのための自然言語理解のスケールアップ
- Authors: Shaojun Xu, Xusheng Luo, Yutong Huang, Letian Leng, Ruixuan Liu, Changliu Liu,
- Abstract要約: Nl2Hltl2Planは自然言語コマンドを階層線形時間論理(LTL)に変換するフレームワーク
まず、LLMは命令を階層的なタスクツリーに変換し、論理的および時間的関係をキャプチャする。
次に、微調整されたLLMは、サブタスクをフラットな公式に変換し、階層的な仕様に集約する。
- 参考スコア(独自算出の注目度): 8.180994118420053
- License:
- Abstract: To enable non-experts to specify long-horizon, multi-robot collaborative tasks, language models are increasingly used to translate natural language commands into formal specifications. However, because translation can occur in multiple ways, such translations may lack accuracy or lead to inefficient multi-robot planning. Our key insight is that concise hierarchical specifications can simplify planning while remaining straightforward to derive from human instructions. We propose Nl2Hltl2Plan, a framework that translates natural language commands into hierarchical Linear Temporal Logic (LTL) and solves the corresponding planning problem. The translation involves two steps leveraging Large Language Models (LLMs). First, an LLM transforms instructions into a Hierarchical Task Tree, capturing logical and temporal relations. Next, a fine-tuned LLM converts sub-tasks into flat LTL formulas, which are aggregated into hierarchical specifications, with the lowest level corresponding to ordered robot actions. These specifications are then used with off-the-shelf planners. Our Nl2Hltl2Plan demonstrates the potential of LLMs in hierarchical reasoning for multi-robot task planning. Evaluations in simulation and real-world experiments with human participants show that Nl2Hltl2Plan outperforms existing methods, handling more complex instructions while achieving higher success rates and lower costs in task allocation and planning. Additional details are available at https://nl2hltl2plan.github.io .
- Abstract(参考訳): 非専門家が長期のマルチロボット協調タスクを指定できるように、自然言語コマンドを形式的な仕様に変換するために言語モデルはますます使われています。
しかし、翻訳は複数の方法で起こる可能性があるため、そのような翻訳は正確さを欠いたり、非効率なマルチロボット計画に繋がる可能性がある。
私たちの重要な洞察は、簡潔な階層的な仕様は計画を簡単にし、人間の指示から導き出すのが簡単であるということです。
自然言語コマンドを階層線形時間論理(LTL)に変換するフレームワークであるNl2Hltl2Planを提案する。
翻訳には、LLM(Large Language Models)を利用する2つのステップが含まれる。
まず、LLMは命令を階層的なタスクツリーに変換し、論理的および時間的関係をキャプチャする。
次に、微調整されたLLMは、サブタスクをフラットなTLL式に変換し、階層的な仕様に集約する。
これらの仕様は、既成のプランナーで使用される。
我々のNl2Hltl2Planはマルチロボットタスク計画のための階層的推論におけるLLMの可能性を示す。
人間によるシミュレーションや実世界の実験では、Nl2Hltl2Planは既存の手法よりも優れており、より複雑な命令を処理し、より高い成功率とタスク割り当てと計画におけるコストの低減を実現している。
詳細はhttps://nl2hltl2plan.github.ioで確認できる。
関連論文リスト
- Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Simultaneous Task Allocation and Planning for Multi-Robots under Hierarchical Temporal Logic Specifications [8.471147498059235]
構文とセマンティクスの両面で,Sc-LTL仕様に階層構造を導入し,フラットな仕様よりも表現性が高いことを示した。
タスク割り当てと計画の同時実行を実現し,マルチロボットシステムの計画を合成するための検索ベースアプローチを開発する。
論文 参考訳(メタデータ) (2024-01-08T16:35:13Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Conformal Temporal Logic Planning using Large Language Models [27.571083913525563]
我々は、自然言語(NL)で表される複数のハイレベルなサブタスクを、時間的・論理的な順序で達成する必要があるとみなす。
私たちの目標は、ロボットアクションのシーケンスとして定義された計画を立てることです。
我々は,既存の象徴的プランナーの新たな統合に依存した階層型ニューロシンボリックプランナーであるHERACLEsを提案する。
論文 参考訳(メタデータ) (2023-09-18T19:05:25Z) - ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon
Sequential Task Planning [7.701407633867452]
大規模言語モデル(LLM)は、タスクに依存しないプランナとして一般化性を高める可能性を提供する。
ISR-LLMは,反復的な自己複製プロセスを通じてLCMに基づく計画を改善する新しいフレームワークである。
ISR-LLM は現状の LLM ベースのプランナに比べてタスク達成率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-26T01:31:35Z) - Decomposition-based Hierarchical Task Allocation and Planning for Multi-Robots under Hierarchical Temporal Logic Specifications [9.150196865878234]
時間論理仕様を用いたロボット計画のための分解に基づく階層的枠組みを定式化する。
混合線形プログラムは、様々なロボットにサブタスクを割り当てるために使用される。
本手法はナビゲーションと操作の領域に実験的に適用された。
論文 参考訳(メタデータ) (2023-08-20T23:53:13Z) - Robot Task Planning Based on Large Language Model Representing Knowledge
with Directed Graph Structures [2.3698227130544547]
本研究では,人間の専門知識をLLMと組み合わせたタスクプランニング手法を提案し,LLMプロンプトテンプレートであるThink_Net_Promptを設計した。
さらに,タスクを段階的に分解し,タスクツリーを生成して各タスクの計画量を削減する手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T13:10:00Z) - Learning to Plan with Natural Language [111.76828049344839]
大規模言語モデル(LLM)は、様々な基本自然言語タスクにおいて顕著な性能を示している。
複雑なタスクを完了するためには、ステップごとに特定のソリューションを生成するためにLCMをガイドするタスクの計画が必要です。
本研究では,(1)第1学習課題計画フェーズにおいて,LCMが学習エラーフィードバックから導出するように促した新たなステップバイステップのソリューションと行動指示を用いてタスク計画を反復的に更新する,という2つの段階を含む学習計画手法を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z) - Procedures as Programs: Hierarchical Control of Situated Agents through
Natural Language [81.73820295186727]
エージェント命令と制御のための階層的な手続き的知識を表現する強力な手法である,プログラムとしての手続きの形式化を提案する。
NL命令に対するIQAおよびALFREDデータセット上で、このフレームワークをインスタンス化する。
論文 参考訳(メタデータ) (2021-09-16T20:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。