論文の概要: Temporally Extended Goal Recognition in Fully Observable
Non-Deterministic Domain Models
- arxiv url: http://arxiv.org/abs/2306.08680v1
- Date: Wed, 14 Jun 2023 18:02:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 17:39:12.793368
- Title: Temporally Extended Goal Recognition in Fully Observable
Non-Deterministic Domain Models
- Title(参考訳): 完全可観測非決定性領域モデルにおける時間的拡張目標認識
- Authors: Ramon Fraga Pereira, Francesco Fuggitti, Felipe Meneguzzi, Giuseppe De
Giacomo
- Abstract要約: 既存のアプローチでは、ゴール仮説は1つの最終状態上の1つの共役公式からなると仮定している。
完全可観測非決定論的(FOND)計画領域モデルにおける時間的拡張目標に焦点をあてる。
実験結果から, 異なる認識環境における時間的拡張目標の認識において, 提案手法が正確であることが示唆された。
- 参考スコア(独自算出の注目度): 43.460098744623416
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Goal Recognition is the task of discerning the correct intended goal that an
agent aims to achieve, given a set of goal hypotheses, a domain model, and a
sequence of observations (i.e., a sample of the plan executed in the
environment). Existing approaches assume that goal hypotheses comprise a single
conjunctive formula over a single final state and that the environment dynamics
are deterministic, preventing the recognition of temporally extended goals in
more complex settings. In this paper, we expand goal recognition to temporally
extended goals in Fully Observable Non-Deterministic (FOND) planning domain
models, focusing on goals on finite traces expressed in Linear Temporal Logic
(LTLf) and Pure Past Linear Temporal Logic (PLTLf). We develop the first
approach capable of recognizing goals in such settings and evaluate it using
different LTLf and PLTLf goals over six FOND planning domain models. Empirical
results show that our approach is accurate in recognizing temporally extended
goals in different recognition settings.
- Abstract(参考訳): ゴール認識(Goal Recognition)とは、エージェントが目標仮説、ドメインモデル、および一連の観測(つまり、環境内で実行される計画のサンプル)を与えられた上で達成しようとする意図された目標を識別するタスクである。
既存のアプローチでは、ゴール仮説は単一の最終状態上の単一の共役式で構成され、環境力学は決定論的であり、より複雑な設定において時間的に拡張されたゴールの認識を妨げていると仮定している。
本稿では,線形時相論理(ltlf)と純粋過去時相論理(pltlf)で表される有限トレースの目標に着目し,完全可観測非決定性(fond)計画ドメインモデルにおいて,目標認識を時間的拡張目標に拡張する。
6つのFONDプランニングドメインモデルに対して,そのような設定で目標を認識可能な最初のアプローチを開発し,異なるLTLfとPLTLfの目標を用いて評価する。
実験の結果,我々のアプローチは,異なる認識環境における時間的拡張目標の認識において正確であることがわかった。
関連論文リスト
- Towards Measuring Goal-Directedness in AI Systems [0.0]
意図しない目標を追求するAIシステムにとって重要な前提条件は、一貫性のあるゴール指向の方法で振る舞うかどうかである。
そこで本稿では,多くの報酬関数に準最適であるかどうかをモデル化する政策の目的指向性の定義を新たに提案する。
私たちの貢献は、AIシステムが危険な目標を追求できるかどうかという問題にアプローチするために、シンプルで計算が容易なゴール指向性の定義です。
論文 参考訳(メタデータ) (2024-10-07T01:34:42Z) - Imitating Graph-Based Planning with Goal-Conditioned Policies [72.61631088613048]
本稿では,目標目標条件ポリシにサブゴール条件ポリシを蒸留する自己シミュレーション方式を提案する。
提案手法は,既存の目標条件付きRL手法のサンプル効率を大幅に向上させることができることを実証的に示す。
論文 参考訳(メタデータ) (2023-03-20T14:51:10Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Goal-Conditioned Q-Learning as Knowledge Distillation [136.79415677706612]
目標条件設定における非政治強化学習と知識蒸留との関連について検討する。
これは,目標の空間が高次元である場合に,目標条件付き非政治強化学習の性能を向上させることを実証的に示す。
また,複数のスパース目標を同時に達成した場合に,この手法を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2022-08-28T22:01:10Z) - Adversarial Intrinsic Motivation for Reinforcement Learning [60.322878138199364]
政策状態の訪問分布と目標分布とのワッサースタイン-1距離が強化学習タスクに有効に活用できるかどうかを検討する。
我々のアプローチは、AIM (Adversarial Intrinsic Motivation) と呼ばれ、このワッサーシュタイン-1距離をその双対目的を通して推定し、補足報酬関数を計算する。
論文 参考訳(メタデータ) (2021-05-27T17:51:34Z) - Recognizing LTLf/PLTLf Goals in Fully Observable Non-Deterministic
Domain Models [26.530274055506453]
目標認識(Goal Recognition)は、エージェントが目標とする正しい目的の目標を特定するタスクです。
我々は,時間的拡張目標を認識可能な新しいアプローチを開発した。
論文 参考訳(メタデータ) (2021-03-22T09:46:03Z) - Goal-GAN: Multimodal Trajectory Prediction Based on Goal Position
Estimation [1.20855096102517]
本稿では,人間の軌道予測のための解釈可能な,エンドツーエンドのトレーニング可能なモデルであるGoal-GANを提案する。
人間のナビゲーションにヒントを得て、軌道予測のタスクを直感的な2段階のプロセスとしてモデル化する。
論文 参考訳(メタデータ) (2020-10-02T17:17:45Z) - Maximum Entropy Gain Exploration for Long Horizon Multi-goal
Reinforcement Learning [35.44552072132894]
学習エージェントは、歴史的達成目標分布のエントロピーを最大化する固有の目標を設定するべきである。
本研究の戦略は, 長期多目標課題における先行技術よりも, はるかに優れたサンプリング効率を達成できることが示される。
論文 参考訳(メタデータ) (2020-07-06T15:36:05Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。