論文の概要: Recognizing LTLf/PLTLf Goals in Fully Observable Non-Deterministic
Domain Models
- arxiv url: http://arxiv.org/abs/2103.11692v1
- Date: Mon, 22 Mar 2021 09:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:39:19.029473
- Title: Recognizing LTLf/PLTLf Goals in Fully Observable Non-Deterministic
Domain Models
- Title(参考訳): 完全可観測非決定性ドメインモデルにおけるltlf/pltlf目標の認識
- Authors: Ramon Fraga Pereira, Francesco Fuggitti, and Giuseppe De Giacomo
- Abstract要約: 目標認識(Goal Recognition)は、エージェントが目標とする正しい目的の目標を特定するタスクです。
我々は,時間的拡張目標を認識可能な新しいアプローチを開発した。
- 参考スコア(独自算出の注目度): 26.530274055506453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Goal Recognition is the task of discerning the correct intended goal that an
agent aims to achieve, given a set of possible goals, a domain model, and a
sequence of observations as a sample of the plan being executed in the
environment. Existing approaches assume that the possible goals are formalized
as a conjunction in deterministic settings. In this paper, we develop a novel
approach that is capable of recognizing temporally extended goals in Fully
Observable Non-Deterministic (FOND) planning domain models, focusing on goals
on finite traces expressed in Linear Temporal Logic (LTLf) and (Pure) Past
Linear Temporal Logic (PLTLf). We empirically evaluate our goal recognition
approach using different LTLf and PLTLf goals over six common FOND planning
domain models, and show that our approach is accurate to recognize temporally
extended goals at several levels of observability.
- Abstract(参考訳): 目標認識 (Goal Recognition) とは、エージェントが目標のセット、ドメインモデル、そして環境の中で実行されている計画のサンプルとして一連の観測を与えられた上で達成しようとする意図された目標を識別するタスクである。
既存のアプローチでは、可能なゴールは決定論的設定で結合として形式化されていると仮定している。
本稿では,線形時間論理 (LTLf) と (Pure) 過去の線形時間論理 (PLTLf) で表される有限トレースの目標に着目し,完全可観測非決定論的(FOND)計画領域モデルにおける時間的拡張目標を認識可能な新しいアプローチを開発する。
我々は6つの共通FOND計画領域モデルに対して異なるLTLfとPLTLfの目標を用いて目標認識アプローチを実証的に評価し、その手法が観測可能性の異なる時間的拡張目標を認識可能であることを示す。
関連論文リスト
- Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - Temporally Extended Goal Recognition in Fully Observable
Non-Deterministic Domain Models [43.460098744623416]
既存のアプローチでは、ゴール仮説は1つの最終状態上の1つの共役公式からなると仮定している。
完全可観測非決定論的(FOND)計画領域モデルにおける時間的拡張目標に焦点をあてる。
実験結果から, 異なる認識環境における時間的拡張目標の認識において, 提案手法が正確であることが示唆された。
論文 参考訳(メタデータ) (2023-06-14T18:02:00Z) - Imitating Graph-Based Planning with Goal-Conditioned Policies [72.61631088613048]
本稿では,目標目標条件ポリシにサブゴール条件ポリシを蒸留する自己シミュレーション方式を提案する。
提案手法は,既存の目標条件付きRL手法のサンプル効率を大幅に向上させることができることを実証的に示す。
論文 参考訳(メタデータ) (2023-03-20T14:51:10Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - C-Planning: An Automatic Curriculum for Learning Goal-Reaching Tasks [133.40619754674066]
ゴール条件強化学習は、ナビゲーションや操作を含む幅広い領域のタスクを解決できる。
本研究では,学習時間における探索を用いて,中間状態を自動生成する遠隔目標獲得タスクを提案する。
E-stepはグラフ検索を用いて最適な経路点列を計画することに対応し、M-stepはそれらの経路点に到達するための目標条件付きポリシーを学習することを目的としている。
論文 参考訳(メタデータ) (2021-10-22T22:05:31Z) - Goal-GAN: Multimodal Trajectory Prediction Based on Goal Position
Estimation [1.20855096102517]
本稿では,人間の軌道予測のための解釈可能な,エンドツーエンドのトレーニング可能なモデルであるGoal-GANを提案する。
人間のナビゲーションにヒントを得て、軌道予測のタスクを直感的な2段階のプロセスとしてモデル化する。
論文 参考訳(メタデータ) (2020-10-02T17:17:45Z) - Maximum Entropy Gain Exploration for Long Horizon Multi-goal
Reinforcement Learning [35.44552072132894]
学習エージェントは、歴史的達成目標分布のエントロピーを最大化する固有の目標を設定するべきである。
本研究の戦略は, 長期多目標課題における先行技術よりも, はるかに優れたサンプリング効率を達成できることが示される。
論文 参考訳(メタデータ) (2020-07-06T15:36:05Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。