論文の概要: Planning for Temporally Extended Goals in Pure-Past Linear Temporal
Logic: A Polynomial Reduction to Standard Planning
- arxiv url: http://arxiv.org/abs/2204.09960v1
- Date: Thu, 21 Apr 2022 08:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:21:22.913628
- Title: Planning for Temporally Extended Goals in Pure-Past Linear Temporal
Logic: A Polynomial Reduction to Standard Planning
- Title(参考訳): 純極線形時間論理における時限拡張ゴールの計画:標準計画への多項式還元
- Authors: Giuseppe De Giacomo, Marco Favorito, Francesco Fuggitti
- Abstract要約: PPLTL(Pure-Past)で表される時間的拡張目標について検討する。
PPLTL目標の計画を標準計画に変換する手法を考案した。
我々の翻訳では、FDやMyNDといった最先端のツールがPLTLの目標をシームレスに扱えるようにしています。
- 参考スコア(独自算出の注目度): 24.40306100502023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study temporally extended goals expressed in Pure-Past LTL (PPLTL). PPLTL
is particularly interesting for expressing goals since it allows to express
sophisticated tasks as in the Formal Methods literature, while the worst-case
computational complexity of Planning in both deterministic and nondeterministic
domains (FOND) remains the same as for classical reachability goals. However,
while the theory of planning for PPLTL goals is well understood, practical
tools have not been specifically investigated. In this paper, we make a
significant leap forward in the construction of actual tools to handle PPLTL
goals. We devise a technique to polynomially translate planning for PPLTL goals
into standard planning. We show the formal correctness of the translation, its
complexity, and its practical effectiveness through some comparative
experiments. As a result, our translation enables state-of-the-art tools, such
as FD or MyND, to handle PPLTL goals seamlessly, maintaining the impressive
performances they have for classical reachability goals.
- Abstract(参考訳): PPLTL(Pure-Past LTL)で表される時間拡張目標について検討した。
PPLTLは、フォーマルメソッドの文献のように洗練されたタスクを表現できるのに対して、決定論的および非決定論的ドメイン(FOND)におけるプランニングの最悪の計算複雑性は、古典的な到達可能性の目標と同じである。
しかし, PPLTL目標の計画理論はよく理解されているものの, 実用ツールについては特に研究されていない。
本稿では,PLTLの目標を達成するための実際のツールの構築において,大きな前進を遂げる。
PPLTL目標の計画を標準計画に多項式変換する手法を考案する。
本稿では, 翻訳の形式的正確性, 複雑さ, 実用性について比較実験を行った。
その結果,FD や MyND といった最先端のツールが PPLTL の目標をシームレスに扱えるようになり,従来の到達性目標に対する印象的な性能を維持した。
関連論文リスト
- Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - Exploring and Benchmarking the Planning Capabilities of Large Language Models [57.23454975238014]
この研究は、大規模言語モデル(LLM)の計画能力を改善するための基礎を築いた。
我々は、古典的な計画ベンチマークと自然言語シナリオの両方を含む包括的なベンチマークスイートを構築した。
本研究は,LLM計画の強化を目的としたマルチショットインコンテキスト学習について検討し,文脈長の増大と計画性能の向上の関係について検討する。
論文 参考訳(メタデータ) (2024-06-18T22:57:06Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - Conformal Temporal Logic Planning using Large Language Models [27.571083913525563]
我々は、自然言語(NL)で表される複数のハイレベルなサブタスクを、時間的・論理的な順序で達成する必要があるとみなす。
私たちの目標は、ロボットアクションのシーケンスとして定義された計画を立てることです。
我々は,既存の象徴的プランナーの新たな統合に依存した階層型ニューロシンボリックプランナーであるHERACLEsを提案する。
論文 参考訳(メタデータ) (2023-09-18T19:05:25Z) - Designing Behavior Trees from Goal-Oriented LTLf Formulas [3.3674998206524465]
本稿では,LTL(Linear Temporal Logic)のサブセットを用いて指定されたゴールを動作木(BT)に変換する方法を示す。
BTは、成功したトレースが目標を満たすことを保証します。
論文 参考訳(メタデータ) (2023-07-12T18:29:37Z) - Efficient Learning of High Level Plans from Play [57.29562823883257]
本稿では,移動計画と深いRLを橋渡しするロボット学習のフレームワークであるELF-Pについて紹介する。
ELF-Pは、複数の現実的な操作タスクよりも、関連するベースラインよりもはるかに優れたサンプル効率を有することを示す。
論文 参考訳(メタデータ) (2023-03-16T20:09:47Z) - Reinforcement Learning for General LTL Objectives Is Intractable [10.69663517250214]
我々は、マルコフ決定プロセス(PACMDP)フレームワークにおいて、おそらく正しい学習の下で問題を定式化する。
この結果から, 強化学習アルゴリズムでは, 学習ポリシーの性能に対するPAC-MDP保証を得ることは不可能であることが示唆された。
論文 参考訳(メタデータ) (2021-11-24T18:26:13Z) - Recognizing LTLf/PLTLf Goals in Fully Observable Non-Deterministic
Domain Models [26.530274055506453]
目標認識(Goal Recognition)は、エージェントが目標とする正しい目的の目標を特定するタスクです。
我々は,時間的拡張目標を認識可能な新しいアプローチを開発した。
論文 参考訳(メタデータ) (2021-03-22T09:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。