論文の概要: A Planning Compilation to Reason about Goal Achievement at Planning Time
- arxiv url: http://arxiv.org/abs/2503.09545v2
- Date: Mon, 11 Aug 2025 08:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 16:55:52.169544
- Title: A Planning Compilation to Reason about Goal Achievement at Planning Time
- Title(参考訳): 計画時の目標達成に関する推論のための計画コンパイル
- Authors: Alberto Pozanco, Marianela Morales, Daniel Borrajo, Manuela Veloso,
- Abstract要約: 達成した特定の目標の持続性を強制するコミットアクションを用いて、当初の計画タスクを拡張するコンパイルを提案する。
実験結果から,最適化タスクの解決は最適計画と最適計画の両方のオーバーヘッドを伴わないことが明らかとなった。
- 参考スコア(独自算出の注目度): 9.722824469961925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying the specific actions that achieve goals when solving a planning task might be beneficial for various planning applications. Traditionally, this identification occurs post-search, as some actions may temporarily achieve goals that are later undone and re-achieved by other actions. In this paper, we propose a compilation that extends the original planning task with commit actions that enforce the persistence of specific goals once achieved, allowing planners to identify permanent goal achievement during planning. Experimental results indicate that solving the reformulated tasks does not incur on any additional overhead both when performing optimal and suboptimal planning, while providing useful information for some downstream tasks.
- Abstract(参考訳): 計画タスクの解決において、目標を達成するための特定のアクションを特定することは、様々な計画アプリケーションにとって有益である。
伝統的に、この識別は研究後に起こり、一部の行動は、後に放棄され、他の行動によって再達成される目標を一時的に達成する可能性がある。
本稿では,当初達成した目標の持続性を強制するコミット行動により,計画立案者が計画中に恒久的な目標達成を特定できるように,当初の計画課題を拡張したコンピレーションを提案する。
実験結果から, 最適化タスクの解決には, 最適計画と最適計画の両方のオーバーヘッドが伴わないとともに, 下流タスクに有用な情報を提供することが示唆された。
関連論文リスト
- Efficient Robotic Policy Learning via Latent Space Backward Planning [17.770562202624962]
現行のロボット計画手法は、しばしば、全画素の詳細を持つ多フレーム画像の予測に頼っている。
本稿では,その課題を最終目標とするLBP(Latent Space Backward Planning scheme)を提案する。
LBPは既存の細粒度・前方計画法よりも優れた性能を示し,SOTA性能を実現している。
論文 参考訳(メタデータ) (2025-05-11T06:13:51Z) - Hybrid Search for Efficient Planning with Completeness Guarantees [63.02803974708516]
本稿では,離散的な行動空間における完全性を実現するために,部分ゴール探索法を効果的に拡張する手法を提案する。
このソリューションは、高レベルの探索の実践的効率と低レベルの探索の完全性という、両方の世界のベストを達成している。
論文 参考訳(メタデータ) (2023-10-19T15:16:43Z) - Take a Break in the Middle: Investigating Subgoals towards Hierarchical
Script Generation [41.79944184861954]
目標指向のスクリプト生成は、与えられた目標を達成するためのステップのリストを生成する新しいタスクである。
本稿では,認知理論の観点からタスクを拡張することを提案する。
論文 参考訳(メタデータ) (2023-05-18T12:10:06Z) - Imitating Graph-Based Planning with Goal-Conditioned Policies [72.61631088613048]
本稿では,目標目標条件ポリシにサブゴール条件ポリシを蒸留する自己シミュレーション方式を提案する。
提案手法は,既存の目標条件付きRL手法のサンプル効率を大幅に向上させることができることを実証的に示す。
論文 参考訳(メタデータ) (2023-03-20T14:51:10Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - C-Planning: An Automatic Curriculum for Learning Goal-Reaching Tasks [133.40619754674066]
ゴール条件強化学習は、ナビゲーションや操作を含む幅広い領域のタスクを解決できる。
本研究では,学習時間における探索を用いて,中間状態を自動生成する遠隔目標獲得タスクを提案する。
E-stepはグラフ検索を用いて最適な経路点列を計画することに対応し、M-stepはそれらの経路点に到達するための目標条件付きポリシーを学習することを目的としている。
論文 参考訳(メタデータ) (2021-10-22T22:05:31Z) - Maximum Entropy Gain Exploration for Long Horizon Multi-goal
Reinforcement Learning [35.44552072132894]
学習エージェントは、歴史的達成目標分布のエントロピーを最大化する固有の目標を設定するべきである。
本研究の戦略は, 長期多目標課題における先行技術よりも, はるかに優れたサンプリング効率を達成できることが示される。
論文 参考訳(メタデータ) (2020-07-06T15:36:05Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z) - Divide-and-Conquer Monte Carlo Tree Search For Goal-Directed Planning [78.65083326918351]
暗黙的な逐次計画の仮定に代わるものを検討する。
本稿では,最適計画の近似を行うため,Divide-and-Conquer Monte Carlo Tree Search (DC-MCTS)を提案する。
計画順序に対するこのアルゴリズム的柔軟性は,グリッドワールドにおけるナビゲーションタスクの改善に繋がることを示す。
論文 参考訳(メタデータ) (2020-04-23T18:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。